To see the other types of publications on this topic, follow the link: Modèle statistique linéaire.

Dissertations / Theses on the topic 'Modèle statistique linéaire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle statistique linéaire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dauxois, Thierry. "Dynamique non linéaire et mécanique statistique d'un modèle d'ADN." Dijon, 1993. http://www.theses.fr/1993DIJOS003.

Full text
Abstract:
Nous étudions la dynamique et la mécanique statistique de la dénaturation thermique de l'ADN à partir d'un modèle qui peut être considéré comme une extension des modèles d'Ising. Les simulations numériques à l'équilibre thermique, avec la méthode de Nosé, montrent que, malgré sa simplicité, le modèle procure une description satisfaisante de la dynamique puisque nous avons trouvé des ouvertures fluctuantes et la formation de bulles qui gravissent et se combinent pour conduire à une dénaturation complète de la molécule. Nous avons développé la méthode des fonctions de Green pour tenir compte en détail des effets de discrétisation sur la dynamique non linéaire des breathers. La principale conclusion qui renait des résultats est que la discrétisation de la chaine peut être la raison fondamentale de la stabilité des solutions localisées en général et des breathers en particulier. Nous présentons également un mécanisme qui permettrait de créer des breathers de grande amplitude à partir de ceux de faible amplitude, facilement créés par l'énergie thermique du système. Deux méthodes complémentaires sont utilisées pour étudier la mécanique statistique du modèle. La méthode de l'intégrale de transfert met en évidence que le système présente une dénaturation thermique et que les effets de discrétisation sont suffisamment importants pour élever de manière significative la température de dénaturation. La méthode des phonons self-consistents, en tenant compte de la correction au deuxième ordre, met en relief les effets dominants de la non-linéarité dans les effets précurseurs au voisinage de la transition. De plus, une contribution importante de cette étude à la mécanique statistique est la démonstration qu'un simple système unidimensionnel avec un potentiel non linéaire de substrat et un couplage anharmonique entre plus proches voisins, peut subir une transition extrêmement étroite induite par l'entropie
APA, Harvard, Vancouver, ISO, and other styles
2

Lyazrhi, Faouzi. "Procédures optimales de détection de ruptures dans un modèle linéaire gaussien." Toulouse 3, 1993. http://www.theses.fr/1993TOU30076.

Full text
Abstract:
Nous considérons l'étude de l'optimalité au sens de bayes des techniques de détection d'éventuelle(s) rupture(s) dans un modèle linéaire gaussien. Nous présentons le problème comme une règle de décision multiple entre l'hypothèse d'absence de rupture et l'une des hypothèses de présence de rupture en un ou des point(s) donne(s) traitant ainsi simultanément les deux questions de test et d'estimation. Nous proposons tout d'abord une procédure invariante, optimale pour une fonction de perte simple et une large famille de lois de probabilités a priori; et nous montrons son équivalence, dans des cas particuliers importants, avec les règles les plus usuelles de la littérature, ce qui confère a certaines d'entre elles une forme d'optimalité. Nous définissons ensuite une nouvelle fonction de perte plus réaliste et donnons la procédure optimale associée. Nous comparons alors sur des exemples simules les performances des deux procédures précédentes et de certaines autres procédures rencontrées dans la littérature. Nos propositions sont aussi illustrées par des exemples réels. En ce qui concerne le problème des valeurs critiques inhérent a toutes ces procédures de décision, nous proposons une méthode empirique permettant de les évaluer dans tous les cas. Nous dressons ensuite des tables donnant quelques valeurs critiques pour les niveaux usuels. Enfin, nous élaborons une procédure multiple optimale (pour une certaine fonction de perte) pour détecter au plus k ruptures, ou k est un entier strictement supérieur a 1. Nous en donnons une illustration a l'aide des exemples réels cites plus haut.
APA, Harvard, Vancouver, ISO, and other styles
3

Piet-Lahanier, Hélène. "Estimation de paramètres pour des modèles à erreur bornée." Paris 11, 1987. http://www.theses.fr/1987PA112203.

Full text
Abstract:
De nouvelles méthodes sont présentées pour estimer les paramètres d'un modèle et l'incertitude avec laquelle ils sont connus lorsque les données dont on dispose sont en nombre faible et que les connaissances statistiques disponibles concernant le bruit sont très limitées. Le bruit est caractérisé en précisant la plus grande et la plus petite valeur crédibles pour chacune de ses réalisations. Ceci permet d'associer à chaque donnée un intervalle dénommé barre objet et de définir dans l'espace des paramètres un ensemble (dénommé ensemble de vraisemblance) de points compatibles avec ces barres et la structure du modèle. Ce type d'approche est connue dans la littérature sous le nom générique de "Membership est estimation" et différentes techniques ont été décrites pour caractériser l'ensemble de vraisemblance. La plupart déterminent en fait un ensemble de forme simple contenant S et sont limitées à l'étude des modèles linéaires en leurs paramètres. Deux méthodes sont proposées pour caractériser S, l'une lorsque les sorties modèles dépendent linéairement des paramètres, l'autre dans le cas non linéaire. Dans le cas linéaire, l'ensemble de vraisemblance est un polyèdre convexe dont on détermine une représentation paramétrique exacte en fonction de ses sommets. Cette représentation peut être ensuite utilisée pour déterminer une commande robuste ou pour optimiser un critère quelconque sur S. La prise en compte des mesures est récursive, autorisant une mise en œuvre en ligne. Dans le cas non linéaire, un critère est défini qui est le pourcentage des barres objet avec lesquelles la sortie du modèle est compatible. L'ensemble de vraisemblance correspond au domaine correspondant à la valeur optimale de ce critère. Il est caractérisé en déterminant des points de sa frontière par recherche aléatoire dans l'espace des paramètres. L'estimateur associé à ce critère présente d'intéressantes propriétés de robustesse. Les deux méthodes sont appliquées à des exemples simulés ou réels, recouvrant des domaines aussi divers que la pharmacocinétique, le génie chimique et le traitement d'images.
APA, Harvard, Vancouver, ISO, and other styles
4

Khraibani, Hussein. "Modélisation statistique de données longitudinales sur un réseau routier entretenu." Ecole centrale de Nantes, 2010. http://www.theses.fr/2010ECDN0040.

Full text
Abstract:
Nous nous intéressons à la modélisation des lois d’évolutions des dégradations de chaussées entretenues. Pour cela, cette thèse fait une revue des modèles et outils de modélisation, notamment l’analyse des données de survie (MADS) qui a fait l’objet développements importants au LCPC. Pour tirer parti du fait que les bases de données comportent, aujourd’hui, des séries d’observations sur chaque section routière, elle propose une autre approche fondée sur la mise en œuvre de modèles non linéaires mixtes. En procédant à une comparaison des capacités d’ajustement et de prédiction de ces modèles, d’abord sur des bases de données artificielles, non bruitées et bruitées, puis sur une base de données provenant d’un programme de suivi de section test, et enfin sur une base de données issue du suivi périodique d’un réseau routier réel, la thèse permet de tirer des conclusions claires sur les conditions et le domaine d’application des modèles
Road transportation has a direct impact on a country's economy. Infrastructures, particularly pavements, deteriorate under the effect of traffic and climate. As a result, they most constantly undergo maintenance which often requires expensive works. The optimization of maintenance strategies and the scheduling of works necessarily pass by a study that makes use of deterioration evolution laws and accounts for the effect of maintenance on these laws. In this respect, numerous theoretical and experimental works ranging linear and nonlinear regressions to more sophisticated methods such as Markov chain have been conducted. The thesis presents a survey of models and methods and focuses on the analysis of survival data (MADS), an analysis which constituted the objective of important works at LCPC. In order to acount for the fact that current databases contain repeated measurements of each pavement section, the thesis proposes a different approach based on the use of nonlinear mixed-effects models (NLME). First, it carries out a comparison between the NLME and MADS models on different databases in terms of the goodness of fit and prediction capability. The comparison then allows to draw conclusions about the applicability of the two models
APA, Harvard, Vancouver, ISO, and other styles
5

Seck, Ousmane. "Sur un modèle de diffusion non linéaire en dynamique des populations." Nancy 1, 1986. http://www.theses.fr/1986NAN10162.

Full text
Abstract:
Les équations d'évolution. Étude dans L**(1) de solutions particulières. Les résultats d'existence connus. Estimations à priori. Relaxation des hypothèses de régularité et de compatibilité. Relaxation des hypothèses de stricte positivité
APA, Harvard, Vancouver, ISO, and other styles
6

Saumard, Mathieu. "Contribution à l'analyse statistique des données fontionnelles." Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
APA, Harvard, Vancouver, ISO, and other styles
7

Roget-Vial, Céline. "deux contributions à l'étude semi-paramétrique d'un modèle de régression." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00008730.

Full text
Abstract:
Cette thèse s'intéresse à deux modèles de régression semi-paramétrique permettant de contourner le problème classique du "fléau de la dimension" inhérent aux approches non-paramétriques usuelles. La première partie du travail concerne l'étude d'un modèle de régression dit partiellement linéaire ; le but est d'identifier les régresseurs qui composent la partie non-linéaire de la fonction de régression ainsi que d'estimer tous les paramètres du modèle. Pour ce faire nous définissons des quantités caractéristiques du modèle qui mesurent la linéarité des régresseurs puis nous développons un test du nombre de composantes non-linéaires basé sur cette mesure. La seconde partie porte sur l'étude d'un modèle dit à direction révélatrice unique et consiste à estimer, via des propriétés géométriques, l'axe du modèle et d'en déduire un test convergent et puissant sous une suite d'alternatives locales.
APA, Harvard, Vancouver, ISO, and other styles
8

Boisbunon, Aurélie. "Sélection de modèle : une approche décisionnelle." Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00793898.

Full text
Abstract:
Cette thèse s'articule autour de la problématique de la sélection de modèle, étudiée dans le contexte de la régression linéaire. L'objectif est de déterminer le meilleur modèle de prédiction à partir de données mesurées, c'est-à-dire le modèle réalisant le meilleur compromis entre attache aux données et complexité du modèle. La contribution principale consiste en la dérivation de critères d'évaluation de modèles basés sur des techniques de théorie de la décision, plus précisément l'estimation de coût. Ces critères reposent sur une hypothèse distributionnelle plus large que l'hypothèse classique gaussienne avec indépendance entre les observations : la famille des lois à symétrie sphérique. Cette famille nous permet à la fois de nous affranchir de l'hypothèse d'indépendance et d'ajouter une plus grande robustesse puisque nos critères ne dépendent pas de la forme spécifique de la distribution. Nous proposons également une méthode de comparaison des critères dérivés au travers d'une mesure de type Erreur quadratique (MSE), qui permet de déterminer si un critère d'évaluation de modèle est meilleur qu'un autre. La seconde contribution attaque le problème de la construction des différents modèles comparés. Les collections de modèles considérées sont celles issues des méthodes de régularisation parcimonieuses, de type Lasso. En particulier, nous nous sommes intéressés à la Pénalité Concave Minimax (MCP), qui garde la sélection du Lasso tout en corrigeant son biais d'estimation. Cette pénalité correspond cependant à un problème non différentiable et non convexe. La généralisation des outils habituels de sous-différentielles grâce aux différentielles de Clarke a permis de déterminer les conditions d'optimalité et de développer un algorithme de chemin de régularisation pour le MCP. Enfin, nous comparons nos propositions avec celles de la littérature au travers d'une étude numérique, dans laquelle nous vérifions la qualité de la sélection. Les résultats montrent notamment que nos critères obtiennent des performances comparables à ceux de la littérature, et que les critères les plus couramment utilisés en pratique (validation croisée) ne sont pas toujours parmi les plus performants.
APA, Harvard, Vancouver, ISO, and other styles
9

Rohart, Florian. "Prédiction phénotypique et sélection de variables en grande dimension dans les modèles linéaires et linéaires mixtes." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0027/document.

Full text
Abstract:
Les nouvelles technologies permettent l'acquisition de données génomiques et post-génomiques de grande dimension, c'est-à-dire des données pour lesquelles il y a toujours un plus grand nombre de variables mesurées que d'individus sur lesquels on les mesure. Ces données nécessitent généralement des hypothèses supplémentaires afin de pouvoir être analysées, comme une hypothèse de parcimonie pour laquelle peu de variables sont supposées influentes. C'est dans ce contexte de grande dimension que nous avons travaillé sur des données réelles issues de l’espèce porcine et de la technologie haut-débit, plus particulièrement le métabolome obtenu à partir de la spectrométrie RMN et des phénotypes mesurés post-mortem pour la plupart. L'objectif est double : d'une part la prédiction de phénotypes d’intérêt pour la production porcine et d'autre part l'explicitation de relations biologiques entre ces phénotypes et le métabolome. On montre, grâce à une analyse dans le modèle linéaire effectuée avec la méthode Lasso, que le métabolome a un pouvoir prédictif non négligeable pour certains phénotypes importants pour la production porcine comme le taux de muscle et la consommation moyenne journalière. Le deuxième objectif est traité grâce au domaine statistique de la sélection de variables. Les méthodes classiques telles que la méthode Lasso et la procédure FDR sont investiguées et de nouvelles méthodes plus performantes sont développées : nous proposons une méthode de sélection de variables en modèle linéaire basée sur des tests d'hypothèses multiples. Cette méthode possède des résultats non asymptotiques de puissance sous certaines conditions sur le signal. De part les données annexes disponibles sur les animaux telles que les lots dans lesquels ils ont évolués ou les relations de parentés qu'ils possèdent, les modèles mixtes sont considérés. Un nouvel algorithme de sélection d'effets fixes est développé et il s'avère beaucoup plus rapide que les algorithmes existants qui ont le même objectif. Grâce à sa décomposition en étapes distinctes, l’algorithme peut être combiné à toutes les méthodes de sélection de variables développées pour le modèle linéaire classique. Toutefois, les résultats de convergence dépendent de la méthode utilisée. On montre que la combinaison de cet algorithme avec la méthode de tests multiples donne de très bons résultats empiriques. Toutes ces méthodes sont appliquées au jeu de données réelles et des relations biologiques sont mises en évidence
Recent technologies have provided scientists with genomics and post-genomics high-dimensional data; there are always more variables that are measured than the number of individuals. These high dimensional datasets usually need additional assumptions in order to be analyzed, such as a sparsity condition which means that only a small subset of the variables are supposed to be relevant. In this high-dimensional context we worked on a real dataset which comes from the pig species and high-throughput biotechnologies. Metabolomic data has been measured with NMR spectroscopy and phenotypic data has been mainly obtained post-mortem. There are two objectives. On one hand, we aim at obtaining good prediction for the production phenotypes and on the other hand we want to pinpoint metabolomic data that explain the phenotype under study. Thanks to the Lasso method applied in a linear model, we show that metabolomic data has a real prediction power for some important phenotypes for livestock production, such as a lean meat percentage and the daily food consumption. The second objective is a problem of variable selection. Classic statistical tools such as the Lasso method or the FDR procedure are investigated and new powerful methods are developed. We propose a variable selection method based on multiple hypotheses testing. This procedure is designed to perform in linear models and non asymptotic results are given under a condition on the signal. Since supplemental data are available on the real dataset such as the batch or the family relationships between the animals, linear mixed models are considered. A new algorithm for fixed effects selection is developed, and this algorithm turned out to be faster than the usual ones. Thanks to its structure, it can be combined with any variable selection methods built for linear models. However, the convergence property of this algorithm depends on the method that is used. The multiple hypotheses testing procedure shows good empirical results. All the mentioned methods are applied to the real data and biological relationships are emphasized
APA, Harvard, Vancouver, ISO, and other styles
10

Guégan, Dominique. "Modèles bilinéaires et polynomiaux de séries chronologiques : étude probabiliste et analyse statistique." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00330671.

Full text
Abstract:
Cette thèse présente l'étude probabiliste et statistique approfondie des modèles bilinéaires à temps discret. On étudie ces modèles à partir de différentes approches (discrète, markovienne). On trouve tout d'abord une présentation globale des modèles non linéaires, la description des outils probabilistes utiles à l'étude des modèles non linéaires, ainsi qu'une présentation des modèles bilinéaires à partir de simulations permettant de mettre en évidence leurs principales caractéristiques trajectorielles. L'approche markovienne s'avère beaucoup plus puissante que l'approche directe. Nous démontrons l'existence d'une représentation markovienne sous la forme d'un modèle polynomial affine en l'état; nous donnons des critères pour la minimalité et l'inversibilité de ces représentations. Sur le plan statistique, nous avons montre la convergence presque sure des estimateurs des moindres carrés. D'autres estimateurs sont aussi envisagés permettant de mettre en place des tests d'adéquation de modèles. Certains travaux de l'auteur (huit articles) ont été publiés et sont regroupés dans l'annexe.
APA, Harvard, Vancouver, ISO, and other styles
11

Gasseling, Tony. "Caractérisation non linéaire avancée de transistors de puissance pour la validation de leur modèle CAO." Limoges, 2003. http://www.theses.fr/2003LIMO0041.

Full text
Abstract:
Le travail présenté dans ce mémoire propose une contribution à la conception optimisée d'amplificateurs de puissance par l'utilisation de plusieurs caractérisations fonctionnelles. Celles ci sont réalisées aux premiers stades de la conception, au niveau du transistor en environnement source et load pull. Il est ainsi montré qu'un banc load pull fonctionnant en mode pulsé permet de participer à la validation des technologies utilisées pour la génération de fortes puissances aux fréquences microondes (Bande S). Cette étape permet également de valider fortement les modèles non linéaires électrothermiques des transistors développés à cet effet. Dans le domaine millimétrique, l'amplification de puissance sous contrainte de rendement et de linéarité est à l'heure actuelle un des points critiques du fait des faibles réserves de gain proposées. Dans ce contexte, le développement d'un banc source et load pull actif fonctionnant en bande K et permettant de déterminer les conditions optimales de polarisation et d'adaptation pour l'obtention du meilleur compromis rendement/linéarité se révèle être de première importance pour la conception optimisée d'amplificateur. Enfin, une nouvelle technique de caractérisation dédiée à l'extraction des quatre paramètres S à chaud en environnement load pull est proposée. Une application de cette nouvelle caractérisation a ainsi permis de prédire les oscillations paramétriques hors bande pouvant apparaître en fonction des conditions opératoires lorsque le transistor fonctionne en régime fort signal
Advanced functional characterizations of power transistors for the validation of nonlinear models of SC devices used in CAD packages. This work deals with different functional characterization methods for the design of optimized power amplifiers. These characterizations are carried out on transistors at the first stages of the design, in a source and load-pull environment. Thus, it is shown that a pulsed load-pull set up is very useful to validate the technologies used for the generation of high power at RF and microwave frequencies. It also enables to deeply validate the thermoelectric nonlinear models of transistors developed for this purpose. For the design of amplifiers which operate up to millimetric frequencies (Ku / K Band), reaching high power under constraint of efficiency and linearity is one of the most critical point because of the weak reserves of power gain proposed. In this context, the development of an active source and load-pull setup is of prime importance. It enables to primarily determine the transistor optimum operating conditions (Matching and DC bias) to reach the best trade off between efficiency and linearity. Finally, a new method to perform Hot Small-Signal S-Parameter measurements of power transistors operating under large signal conditions is proposed. An application to the prediction of parametric oscillations when the transistor is driven by a pump signal is demonstrated
APA, Harvard, Vancouver, ISO, and other styles
12

Kapche, Tagne François. "Utilisation d'un modèle quasi-bidimensionnel pour la simulation d'un transistor à effet de champ en régime de fonctionnement non linéaire." Lille 1, 1997. http://www.theses.fr/1997LIL10037.

Full text
Abstract:
La conception des circuits mmics necessite la modelisation des elements actifs et passifs. Si les proprietes des elements passifs sont en general connues avec une bonne precision, il n'est pas de meme pour les elements actifs et particulierement des transistors. Au laboratoire, des travaux anterieurs ont permis le developpement du logiciel de simulation nomme helena pour hemt electrical properties and noise analysis. Helena dans sa version originale se limitait a l'etude du composant en regime de fonctionnement lineaire. Or les transistors travaillent egalement en regime de fonctionnement non lineaire. L'objectif de ce travail consiste a etudier la modelisation non lineaire des mesfet et des hemt en utilisant un modele quasi-bidimensionnel. Les methodes de modelisation de composants non lineaire pouvant etre experimentales et theoriques, nous avons essaye d'utiliser ces deux approches. Pour atteindre cet objectif, nous avons organise le memoire en trois chapitres. Le premier chapitre est consacre a la modelisation statique, petit signal et non lineaire des mesfet et des hemt. Pour l'etude non lineaire, nous avons modelise les variations des elements du schema equivalent non lineaire en fonction des tensions vds et vgs par des expressions mathematiques empiriques. Le second chapitre presente le logiciel dans sa version commercialisee par la societe artech house. Dans cette version, nous avons introduit des modeles non lineaires des caracteristiques statiques courant tension. Le troisieme chapitre est consacre a la modelisation temporelle des mesfet et des hemt. Apres avoir decrit les methodes theoriques de modelisation de composants non lineaire, nous avons presente les equations physiques qui decrivent le composant. Ces equations sont resolues en utilisant l'approximation quasi-bidimensionnelle.
APA, Harvard, Vancouver, ISO, and other styles
13

Picard, Guillaume. "Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002315.

Full text
Abstract:
L'objet de la thèse est l'étude, la modélisation et le traitement des distorsions non linéaires sonores, pour lesquelles les techniques actuelles s'avèrent impuissantes. L'approche retenue consiste à représenter, globalement, à la fois le signal audio à restaurer et le processus de distorsion, dans le cadre d'un modèle statistique. Cette approche présente un bon compromis entre une souhaitable généricité -possibilité de traiter à l'aide d'une méthode globale plusieurs types de distorsions- et l'utilisation de connaissances spécifiques, notamment concernant les sources de distorsions. La première étape de la thèse consiste en une analyse des mécanismes de la distorsion basée sur une série de mesures où plusieurs séquences audio sont enregistrées en entrée et en sortie d'appareils audiofréquences standards (amplificateurs de puissance, convertisseurs numérique-analogique, enregistreurs sur bandes magnétiques). Les éléments d'analyse retenus conduisent à la présentation des hypothèses principales du traitement. La méthode est basée sur un modèle de transmission non-linéaire choisi parmi ceux étudiés dans la littérature (modèles en cascades de Hammerstein simple), ainsi qu'un modèle des signaux à restaurer (modélisation autorégressive et modèle gaussien à écart-type variable). La seconde étape définit d'une part, la méthode d'identification ``autodidacte'' (à partir de la donnée seule du signal distordu) du modèle de distorsion et d'autre part, la technique de reconstruction de l'extrait sonore associée aux modèles de distorsion et de signal.
APA, Harvard, Vancouver, ISO, and other styles
14

Ribereau, Pierre. "Quelques contributions à la statistique théorique et appliquée." Paris 6, 2005. http://www.theses.fr/2005PA066164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Crambes, Christophe. "Modèles de régression linéaire pour variables explicatives fonctionnelles." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00134003.

Full text
Abstract:
L'analyse des données fonctionnelles constitue une branche de la statistique dont le développement s'est fortement intensifié ces dernières années. Dans cette thèse, on s'intéresse à des problèmes de régression fonctionnelle pour lesquels il s'agit d'expliquer les variations d'une variable d'intérêt réelle à partir d'une variable explicative fonctionnelle, c'est-à-dire à valeur dans un espace de dimension éventuellement infinie. On considère plus précisément des modèles de régression linéaire. Deux types d'estimation sont proposés: l'estimation de quantiles conditionnels et l'estimation de la moyenne conditionnelle (cette dernière étant considérée dans le cas où la variable explicative est non bruitée, puis lorsque celle-ci est soumise à des erreurs de mesure). Dans chaque cas, des estimateurs basés sur les fonctions splines sont proposés, solutions de problèmes de minimisation pénalisés, la pénalisation intervenant pour contourner le problème lié au fait que la variable explicative est à valeurs dans un espace de dimension infinie. Finalement, on s'intéresse aux aspects pratique de cette étude, au moyen de simulations, puis sur un jeu de données réelles concernant la prévision de pics de pollution à l'ozone à Toulouse.
APA, Harvard, Vancouver, ISO, and other styles
16

Thébaud, Olivier. "Emploi des chaînes de Markov dérivantes dans l'étude du génome." Paris 5, 2001. http://www.theses.fr/2001PA05S008.

Full text
Abstract:
Ce travail de recherche consiste à décrire des modèles statistiques capables d'expliquer au mieux l'hétérogénéité et tenter d'identifier des régions distinctes du génome. Nous travaillons dans trois directions : statistique en utilisant des chaines de Markov, biologique puisque nous appliquons notre modèle à des données réelles et informatique car l'un de nos buts est de créer des outils informatiques à partir de nos modèles statistiques. Depuis quelques années, au sein du laboratoire de statistique médicale de Paris V, un travail de thèse a été poursuivi par le maître de conférence Florence Muri, qui utilise des modèles de chaînes de Markov cachées pour délimiter les régions homogènes de la séquence d'ADN étudiée. Ces modèles supposent l'existence de plages homogènes dont on ignore a priori la taille et la position, et que l'on dispose d'un nombre fini de modèles (typiquement 2, 3 ou 4) qui s'ajustent de façon satisfaisante sur chacune de ces plages. Ici nous cherchons à établir la théorie mathématique et statistique qui permettra de faire évoluer de façon continue la chaine de Markov. On parle de chaines de Markov dérivantes. Pour donner un exemple simple du type de modèle, considérons une matrice de transition de départ 0, une d'arrivée 1 et une matrice de transition t évoluant tout au long de la séquence de taille n selon l'équation suivante : t = (1t/n) 0 + t/n 1. Ainsi nous éviterons les ruptures brutales observées entre deux plages successives dans l'optique chaines de Markov cachées en dérivant continument entre ces deux plages. Notre priorité est bien entendu la meilleure estimation possible de 0 et 1. Nous développons d'abord mathématiquement le modèle, puis nous procédons à des simulations pour assimiler son comportement et l'appliquons enfin sur les deux organismes e. Coli et le phage ou la comparaison de nos résultats avec ceux obtenus grâce aux chaines de Markov cachées a grand intérêt.
APA, Harvard, Vancouver, ISO, and other styles
17

Laurent-Chabalier, Sabine. "Impact d'une mauvaise spécification de la variance sur la statistique du test F d'un modèle linéaire : étude de séries temporelles de richesse en sucre de la canne." Montpellier 2, 2007. http://www.theses.fr/2007MON20192.

Full text
Abstract:
Ce travail vise à étudier l'impact d'une mauvaise spécification de la variance sur la statistique du test F, pour l'étude de séries temporelles de richesse en sucre de la canne sur l'île de la Réunion. Nous voulons construire un modèle de prédiction des courbes de l'évolution de la richesse de la canne à sucre. Nous considérons le modèle linéaire Y = X + e , où X est une matrice orthogonale supposée de plein rang et e est le vecteur d'erreur de loi normale d'espérance nulle et de matrice de variance-covariance  inconnue. Nous proposons d'étudier la statistique du test F, dans le cas d'une mauvaise spécification de cette matrice de variance-covariance en considérant à tort qu'elle est égale à la matrice identité. Nous voulons approcher la loi de cette statistique de test pour un certain type de test d'hypothèse. Pour ceci, nous calculons les quatre premiers moments de la statistique du test F et étu-dions la densité de sa loi. Nous considérons trois formes de matrices  : AR(1), ARMA(1,1) et équi-corrélée. Ceci permet de mesurer l'impact de la mauvaise spécification sur l'espérance, la variance et les coefficients d'asymétrie et d'aplatissement de la loi de cette statistique de test
APA, Harvard, Vancouver, ISO, and other styles
18

Hernandez, Quintero Angelica. "Inférence statistique basée sur les processus empiriques dans des modèles semi-paramétriques de durées de vie." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1201/.

Full text
Abstract:
L'analyse statistique de durées de vie censurées intervient dans de nombreuses disciplines, comme la médecine, la fiabilité, la criminologie, la finance, l'ingénierie. Chacun de ces domaines fournit des exemples de situations où: i) l'évènement observé est dû à une cause parmi plusieurs causes en compétition, ii) l'évènement ne peut être observé que pour une fraction, inconnue de l'analyste, de sujets "susceptibles". On parle respectivement de durées de vie en présence de risques concurrents, et de durées de vie en présence d'une fraction immune. Les problèmes posés pour l'analyse statistique de modèles de durées en présence de ces deux types de données incluent la construction d'estimateurs, l'étude de leurs propriétés asymptotiques (consistance, normalité asymptotique, efficacité, estimation de la variance asymptotique), et leur implémentation. Dans ce travail, nous nous intéressons à ce type de problèmes pour deux modèles de régression semi-paramétriques de durées de vie. Nous considérons successivement un modèle de mélange semi-paramétrique basé sur le modèle à risques proportionnels de Cox, puis le modèle de régression semi-paramétrique de transformation linéaire pour l'étude de durées de vie en présence d'une fraction immune. Nous construisons des estimateurs et établissons leurs propriétés asymptotiques, en utilisant des outils issus de la théorie des processus empiriques. Des études de simulation sont également menées
Survival data arise from disciplines such as medicine, criminology, finance and engineering amongst others. In many circumstances the event of interest can be classified in several causes of death or failure and in some others the event can only be observed for a proportion of "susceptibles". Data for these two cases are known as competing risks and long-term survivors, respectively. Issues relevant to the analysis of these two types of data include basic properties such as the parameters estimation, existence, consistency and asymptotic normality of the estimators, and their efficiency when they follow a semiparametric structure. The present thesis investigates these properties in well established semiparametric formulations for the analysis of both competing risks and long-term survivors. It presents an overview of mathematical tools that allow for the study of these basic properties and describes how the modern theory of empirical processes and the theory of semiparametric efficiency facilitate relevant proofs. Also, consistent variance estimate for both the parametric and semiparametric components for the two models are presented. The findings of this research provide the theoretical basis for obtaining inferences with large samples, the calculation of confidence bands and hypothesis testing. The methods are illustrated with data bases generated through simulations
APA, Harvard, Vancouver, ISO, and other styles
19

Cellier, Dominique. "Deux extensions des résultats classiques sur les estimateurs à rétrécisseur : cas de rétrécisseurs non différentiables ; cas de lois à symétrie sphérique." Rouen, 1986. http://www.theses.fr/1986ROUES044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Kumar, Vandhna. "Descente d'échelle statistique du niveau de la mer pour les îles du Pacifique Sud-Ouest : une approche de régression linéaire multiple." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30234.

Full text
Abstract:
L'élévation du niveau de la mer est une préoccupation croissante dans les îles du Pacifique. Au cours de l'ère altimétrique (depuis 1993), les taux d'élévation du niveau de la mer sur le Pacific tropical ouest ont été parmi les plus élevés du monde, atteignant jusqu'à 3-4 fois la moyenne globale. Alors que de plus en plus de communautés soumises aux risques associés à cette hausse du niveau de la mer se déplacent vers des terres plus élevées pour échapper à la montée des eaux, il est impératif de disposer de prédictions du niveau de la mer à l'échelle locale pour faciliter le processus d'adaptation et de planification. Ce processus n'est pas simple car le niveau de la mer varie d'une région à l'autre, notamment en fonction des redistributions de chaleur, sel et masses opérées aux échelles régionales par la circulation océanique, et des modes climatiques dominants (par exemple, ENSO, PDO/IPO). Même à l'échelle locale, d'importants changements du niveau de la mer relatif peuvent résulter de mouvements verticaux naturels ou anthropiques du sol terrestre. Motivée par ces préoccupations, cette thèse se concentre sur l'utilisation d'une technique de descente d'échelle statistique basée sur des régressions linéaires multiples (MLR) pour modéliser les variations interannuelles-à-interdécennales du niveau de la mer pour trois sites côtiers localisés sur des îles du Pacifique Sud-Ouest - Suva et Lautoka à Fidji, et Nouméa en Nouvelle-Calédonie. Le modèle MLR est basé sur la connaissance que les variations du niveau de la mer à ces échelles de temps dans le Pacifique tropical sont principalement de nature thermostérique (c.-à-d. provenant des changements de densité de l'eau de mer induits par des changements de température de l'océan) et que ces variations thermostériques sont principalement générées par les variations de forçage de vent et les ondes de Rossby se propageant vers l'ouest qui en résultent. Les expériences de MLR sont menées sur la période d'étude 1988-2014, l'accent étant mis sur la variabilité interannuelle à décennale et les tendances du niveau de la mer. Le niveau de la mer pour les trois sites côtiers insulaires est d'abord exprimé sous forme de somme des variations stériques et de masse. Dans un second temps, les modèles MLR développés se basent sur une approche plus orientée processus, en utilisant le rotationnel de tension de vent comme approximation de la composante thermostérique.[...]
Sea level rise is a growing concern in the islands of the western Pacific. Over the altimetry era (1993-present), sea level rise rates in the western tropical Pacific were amongst the highest recorded across the world ocean, reaching up to 3-4 times the global mean. As more and more affected communities relocate to higher grounds to escape the rising seas, there is a compelling need for information on local scales to ease the adaptation and planning process. This is not a straightforward process as sea level varies regionally, driven by wind and ocean circulation patterns, and the prevailing climate modes (e.g. ENSO, PDO/IPO). On local scales, substantial sea level changes can result from natural or anthropogenic induced vertical ground motion. Motivated by such concerns, this thesis focuses on developing a statistical downscaling technique, namely a multiple linear regression (MLR) model, to simulate island sea levels at selected sites in the southwest Pacific - Suva and Lautoka in Fiji, and Nouméa in New Caledonia. The model is based on the knowledge that sea level variations in the tropical Pacific are mainly thermosteric in nature (temperature-related changes in ocean water density) and that these thermosteric variations are dominated by wind-forced, westward propagating Rossby waves. The MLR experiments are conducted over the 1988-2014 study period, with a focus on interannual-to-decadal sea level variability and trend. Island sea levels are first expressed a sum of steric and mass changes. Then, a more dynamical approach using wind stress curl as a proxy for the thermosteric component is undertaken to construct the MLR model. In the latter case, island sea levels are perceived as a composite of global, regional and local components, where the second is dominant. The MLR model takes wind stress curl as the dominant regional regressor (via a Rossby wave model), and the local halosteric component (salinity-related changes in ocean water density), local wind stress, and local sea surface temperature as minor regressors. A stepwise regression function is used to isolate statistically significant regressors before calibrating the MLR model. The modeled sea level shows high agreement with observations, capturing 80% of the variance on average. Stationarity tests on the MLR model indicate that it can be applied skillfully to projections of future sea level. The statistical downscaling approach overall provides insights on key drivers of sea level variability at the selected sites, showing that while local dynamics and the global signal modulate sea level to a given extent, most of the variance is driven by regional factors. [...]
APA, Harvard, Vancouver, ISO, and other styles
21

Cogranne, Rémi. "Détection statistique d'informations cachées dans une image naturelle à partir d'un modèle physique." Phd thesis, Université de Technologie de Troyes, 2012. http://tel.archives-ouvertes.fr/tel-00706171.

Full text
Abstract:
Avec l'avènement de l'informatique grand public, du réseau Internet et de la photographie numérique, de nombreuses images naturelles (acquises par un appareil photographique) circulent un peu partout dans le monde. Les images sont parfois modi- fiées de façon légitime ou illicite pour transmettre une information confidentielle ou secrète. Dans ce contexte, la sténographie constitue une méthode de choix pour trans- mettre et dissimuler de l'information. Par conséquent, il est nécessaire de détecter la présence d'informations cachées dans des images naturelles. L'objectif de cette thèse est de développer une nouvelle approche statistique pour effectuer cette détection avec la meilleure fiabilité possible. Dans le cadre de ces travaux, le principal enjeu est la maîtrise des probabilités d'erreur de détection. Pour cela, un modèle paramétrique localement non-linéaire d'une image naturelle est développé. Ce modèle est construit à partir de la physique du système optique d'acquisition et de la scène imagée. Quand les paramètres de ce modèle sont connus, un test statistique théorique est proposé et ses propriétés d'optimalité sont établies. La difficulté principale de la construction de ce test repose sur le fait que les pixels de l'image sont toujours quantifiés. Lorsqu'aucune information sur l'image n'est disponible, il est proposé de linéariser le modèle tout en respectant la contrainte sur la probabilité de fausse alarme et en garantissant une perte d'optimalité bornée. De nombreuses expérimentations sur des images réelles ont confirmé la pertinence de cette nouvelle approche.
APA, Harvard, Vancouver, ISO, and other styles
22

Caron, Emmanuel. "Comportement des estimateurs des moindres carrés du modèle linéaire dans un contexte dépendant : Étude asymptotique, implémentation, exemples." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0036.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au modèle de régression linéaire usuel dans le cas où les erreurs sont supposées strictement stationnaires. Nous utilisons un résultat de Hannan (1973) qui a prouvé un Théorème Limite Central pour l’estimateur des moindres carrés sous des conditions très générales sur le design et le processus des erreurs. Pour un design et un processus d’erreurs vérifiant les conditions d’Hannan, nous définissons un estimateur de la matrice de covariance asymptotique de l’estimateur des moindres carrés et nous prouvons sa consistance sous des conditions très générales. Ensuite nous montrons comment modifier les tests usuels sur le paramètre du modèle linéaire dans ce contexte dépendant. Nous proposons différentes approches pour estimer la matrice de covariance afin de corriger l’erreur de première espèce des tests. Le paquet R slm que nous avons développé contient l’ensemble de ces méthodes statistiques. Les procédures sont évaluées à travers différents ensembles de simulations et deux exemples particuliers de jeux de données sont étudiés. Enfin, dans le dernier chapitre, nous proposons une méthode non-paramétrique par pénalisation pour estimer la fonction de régression dans le cas où les erreurs sont gaussiennes et corrélées
In this thesis, we consider the usual linear regression model in the case where the error process is assumed strictly stationary.We use a result from Hannan (1973) who proved a Central Limit Theorem for the usual least squares estimator under general conditions on the design and on the error process. Whatever the design and the error process satisfying Hannan’s conditions, we define an estimator of the asymptotic covariance matrix of the least squares estimator and we prove its consistency under very mild conditions. Then we show how to modify the usual tests on the parameter of the linear model in this dependent context. We propose various methods to estimate the covariance matrix in order to correct the type I error rate of the tests. The R package slm that we have developed contains all of these statistical methods. The procedures are evaluated through different sets of simulations and two particular examples of datasets are studied. Finally, in the last chapter, we propose a non-parametric method by penalization to estimate the regression function in the case where the errors are Gaussian and correlated
APA, Harvard, Vancouver, ISO, and other styles
23

Wisniewski, Teodor. "Modélisation non-linéaire des machines synchrones pour l'analyse en régimes transitoires et les études de stabilité." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC092/document.

Full text
Abstract:
Les travaux de recherche présentésdans cette thèse ont été effectués dans le cadred'une collaboration entre Leroy Somer et lelaboratoire de génie électrique et électronique deParis (GeePs). Ils ont pour objectif lessimulations des phénomènes observés en modetransitoire des machines électriques. Cessimulations sont particulièrement orientées parles nouvelles exigences issues du Grid Code pourles alternateurs connectés au réseau.Principalement, deux types de modèles ont étédéveloppés. Le premier se base sur unereprésentation de l’état magnétique de lamachine où chaque flux est exprimé en fonctiondes courants des différentes bobines. Le secondmodèle regroupe les courants en utilisant descourants magnétisants sur les axes d et q associésà des coefficients de saturation pour chaque fluxet simplifie la représentation magnétique,notamment pour la prise encompte du circuit amortisseur. Avec unemodélisation suffisamment précise ducomportement magnétique non linéaire de lamachine, ils permettent de mieux prédire lescourants et le couple électromagnétique lors desdéfauts tels que les creux de tension. Les travauxeffectués présentés dans ce mémoire ont permis,en partant des descriptions des saturationstrouvées dans une machine, de définir desméthodes pour incorporer la saturation dans lesmodèles de type circuit et finalement d’aboutirau choix du modèle non-linéaire pour unemachine électrique donnée. Grâce à un temps decalcul réduit, ils ont aussi conduit à l'intégrationsous Simulink de modèles de la machine et dusystème d'entrainement pour la réalisationd'études de stabilité et pour créer unenvironnement de mise au point de la commandedu système
The research presented in this thesiswas carried out in the research and developmentproject between Leroy Somer and the Group ofElectrical Engineering of Paris (GeePs). Theirobjective is to simulate the phenomena observedin the transient states of electrical machines.These simulations are particularly oriented bythe new Grid Code requirements for alternatorsconnected to the power network. Two types ofmodels have been principally developed. Thefirst one is based on a magnetic description ofthe machine where each flux is expressed as afunction of the currents flowing through thedifferent machine windings. The second oneregroups the different winding currents by usingthe magnetizing currents on axes d and qassociated to saturation coefficients for eachflux linkage and simplifies the magneticdescription, especially when taking into accountthe damper windings. With a sufficiently precisemodelling of the non-linear magnetic behaviourof the machine, it is possible to better predict thecurrents and the electromagnetic torque underfault conditions such as voltage drops. The workcarried out in this thesis has made possible,starting from the descriptions of the saturationeffects found in a machine, to define methodsfor incorporating saturation into circuit models.Finally, one can make a choice of the dynamicnon-linear model for a given machine. Thanks toshort computation time, it also led to theSimulink integration of the machine andexcitation system models paving the way forstability and control studies
APA, Harvard, Vancouver, ISO, and other styles
24

Robert, Christian P. "Résultats nouveaux sur les estimateurs à rétrecisseurs scalaires et matriciels." Rouen, 1987. http://www.theses.fr/1987ROUES029.

Full text
Abstract:
Dans le cadre du modèle statistique linéaire, cette thèse apporte certaines améliorations à la théorie des estimateurs à rétrécisseur à l'aide de techniques d'intégration par parties généralisée. Elle élargit tout d'abord les champs d'application de cette théorie (lois à symétrie sphérique, fonctions de rétrécissement de plusieurs variables, non nécessairement continues, opérateurs vectoriels de rétrécissement quelconques, estimateurs "bimatriciels",. . . ). Nous proposons également des méthodes de sélection parmi les classes d'estimateurs à rétrécisseur (condition nécessaire d'admissibilité, conditions suffisantes de domination par des estimateurs appartenant à des classes données,. . . ), montrant en particulier l'intérêt des estimateurs à rétrécisseur matriciel dans les situations de multicolinéarité
APA, Harvard, Vancouver, ISO, and other styles
25

Bernadet, Pascal. "Contribution à une étude de la prise de décision en sport : approche par la psychologie différentielle et esquisse d'un modèle morphodynamique en activités physiques d'environnement." Bordeaux 2, 2003. http://www.theses.fr/2003BOR21023.

Full text
Abstract:
La présente réflexion a pour ambition d'explorer les arcanes de la prise de décision en milieu sportif. L'hypothèse de base postule que ce phénomène peut être analyśé comme un système dynamique non-linéaire qui structure le style de l'acteur. Articulé, dans le cadre des actvités physiques d'environnement, autour de la personnalité du sujet, de son histoire autobiographique et culturelle et d'une "pensée sauvage", le style décisionnel s'inscrit suivant une bimodalité de confrontation ou de coalescence avec les éléments physiques de l'environnement naturel. L'expertise du sujet et la complexité de la situation dans laquelle il se trouve, peuvent alors jouer le rôle de paramètres de contrôle dans l'émergence d'une dynamique décisionnelle considérée sous l'angle des modèles de la Théorie des Catastrophes. En se basant sur la théorie mathématique des singularités l'analyse envisage de modéliser le fonctionnement décisionnel du sujet en faisant varier ces paramètres de contrôle. La vérification des différentes hypothèses utilise les procédures diverses de la psychologie (tests paramétriques et projectifs, entretiens) ainsi qu'une perspective qualifiée de morphodynamique. Cette orientation consiste à partir d'une observation, en situation réelle, des formes des conduites motrices dans deux pratiques sportives, le surfboard et le kayak, mises en relation avec une analyse clinique, d'inférer le fonctionnement du substrat psychologique succeptible de les engendrer. Les résultats montrent la validité du concept de style décisionnel et des éléments qui le charpentent, ainsi que sur le plan paradigmatique, celui du modèle de type fronce. Enfin, l'étude montre la fertilité d'un rapprochement d'une approche différentielle en psychologie, d'une théorie mathématique des singularités et d'une perspective phénoménologique du vécu décisionnel, dans le cadre d'une analyse compréhensive d'un sujet sportif en situation
The present reflexion has for ambition to investigate the mysteries of the decision-taking in sports environment. The basic hypothesis postulates that this phenomenon can be analyzed as a no-linear dynamic system which structures the actor's style. Articulated, within the framework of the Physical Activities of Environment, around the personality of subject, its autobiographical and cultural history and the "wild thought", the decision-making style is in line with a bimodality of confrontation or coalescence with the physical elements of natural environment. The expertise of the subject and the complexity of the situation in which the subject is, can play the role of parameters of control in the emergence of a decision-making dynamics considered under the angle of models of the Catastrophe theory. The analysis which is based on the mathematical theory of singularity tries to model the decision-making functioning of the subject by varying these parameters of control. The various hypothesis checking uses different processes of psychology (parametrical tests and projective tests, interviews) as well as a perspective qualified of morphodynamic. This orientation consists from an observation in real situation, of the motor behavior in two sports practices, the surfboard and the kayak, made contact with the clinical analysis, to deduce the functioning of the psychological substratum able to engender them. The results show the validity of the concept of decision-making style and the elements which constructs it, as well as, on the paradigmatical plan, that of the model of cups type. Finally, the study shows the fertility of a connaction of a differential approach in psychology, a mathematical theory of the singularity and the phenomenological perspective of the decision-making lived, within the framework of a comprehensive analyse of a sports subject in situation
APA, Harvard, Vancouver, ISO, and other styles
26

Bayle, Severine. "Modélisation statistique de données fonctionnelles environnementales : application à l'analyse de profils océanographiques." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4016.

Full text
Abstract:
Afin d'étudier les processus biogéochimiques de l'Océan Austral, des balises posées sur des éléphants de mer ont permis de récolter en 2009-2010 des profils de variables océanographiques (Chlorophylle a (Chl a), température, salinité, lumière) dans une zone s'étalant du sud des îles Kerguelen jusqu'au continent Antarctique. Cette thèse se penche en particulier sur les données de Chl a, car celle-ci est contenue dans les organismes photosynthétiques qui jouent un rôle essentiel de pompe à carbone. Mais les profils verticaux de Chl a, récoltés peu fréquemment, ne permettent pas d'obtenir une cartographie de cette variable dans cette zone de l'océan. Cependant, nous disposons de profils de lumière, échantillonnés plus souvent. L'objectif était alors de développer une méthodologie permettant de reconstruire de manière indirecte les profils de Chl a à partir des profils de lumière, et qui prenne en compte les caractéristiques de ce type de données qui se présentent naturellement comme des données fonctionnelles. Pour cela, nous avons abordé la décomposition des profils à reconstruire ou explicatifs sur une base de splines, ainsi que les questions d'ajustement associées. Un modèle linéaire fonctionnel a été utilisé, permettant de prédire des profils de Chl a à partir des dérivées des profils de lumière. Il est montré que l'utilisation d'un tel modèle permet d'obtenir une bonne qualité de reconstruction pour accéder aux variations hautes fréquences des profils de Chl a à fine échelle. Enfin, une interpolation par krigeage fonctionnel permet de prédire la concentration en Chl a de nuit, car les mesures de lumière acquises à ce moment-là ne peuvent pas être exploitées
To study biogeochemical processes in the Southern Ocean, tags placed on elephant seals allowed to collect during 2009-2010 oceanographic variables profiles (Chlorophyll a (Chl a), temperature, salinity, light) in an area ranging from southern Kerguelen until the Antarctic continent. This thesis focuses on Chl a data as it is contained in photosynthetic organisms and these ones play an essential role in the oceanic carbon cycle. The infrequently collected vertical Chl a profiles don't provide a mapping of this variable in this area of the ocean. However, we have light profiles sampled more often. The aim of this thesis was then to develop a methodology for reconstructing indirectly Chl a profiles from light profiles, and that takes into account characteristics of this kind of data that naturally occur as functional data. For this, we adressed the profiles decomposition to rebuild or explanations on splines basis, as well as issues related adjustment. A functional linear model was used to predict Chl a profiles from light profiles derivatives. It was shown that the use of such a model provides a good quality of reconstruction to access high frequency variations of Chl a profiles at fine scale. Finally, a functional kriging interpolation predicted the Chl a concentration during night, as light measurements acquired at that time can't be exploited. In the future, the methodology aims to be applied to any type of functional data
APA, Harvard, Vancouver, ISO, and other styles
27

Harti, Mostafa. "Estimation robuste sous un modèle de contamination non symétrique et M-estimateur multidimensionnel." Nancy 1, 1986. http://www.theses.fr/1986NAN10063.

Full text
Abstract:
Dans cette thèse nous étudions la robustesse des estimateurs sous les deux modèles de contamination non symétrique: F::(epsilon ),X=(1-epsilon )F::(theta )+epsilon H::(X) et F::(epsilon )=(1-epsilon )F::(theta )+epsilon G. Nous étudions aussi la robustesse des M-estimateurs multidimensionnels et en particulier les M-estimateurs de régression non linéaire pour lesquels nous établissons la normalité asymptotique
APA, Harvard, Vancouver, ISO, and other styles
28

Saad, Mohamad. "Méthodes statistiques et stratégies d'études d'association de phénotypes complexes : études pan-génomiques de la maladie de Parkinson." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1657/.

Full text
Abstract:
Mon travail de thèse s'intéresse aux méthodes statistiques et stratégies d'étude de la composante génétique de maladies complexes chez l'homme et spécifiquement de la Maladie de Parkinson (MP). Ces travaux sont principalement développés dans le cadre d'études d'association pan-génomiques dans deux contextes : détection de variants fréquents et détection de variants rares. Le criblage du génome entier (GWAS) est une stratégie d'étude optimale à condition de bien contrôler les niveaux des erreurs de type I et de type II. En effet, un grand nombre de tests statistiques sont réalisés ; des problèmes de stratification de population sont possibles et leurs effets doivent être contrôlés. Par ailleurs, malgré leurs tailles d'échantillon relativement importantes, les études GWAS, basées sur le test simple-marqueur, peuvent s'avérer individuellement peu puissantes pour détecter des variants génétiques fréquents à effets faibles. L'utilisation des tests multi-marqueur peut optimiser l'utilisation de la variabilité génétique et donc augmenter la puissance des études GWAS. Je me suis intéressé à l'étude de ces tests et spécifiquement le test " SNP-Set " basé sur la méthode statistique de noyau et le test haplotypique. J'ai étudié les aspects théoriques de ces tests et j'ai évalué leurs propriétés statistiques dans nos données empiriques de MP. Ainsi pour nos analyses de MP, j'ai développé des techniques d'imputations et de méta-analyses afin d'augmenter la couverture de la variabilité génétique et la taille d'échantillon. L'analyse d'association pour des variants rares présente plusieurs défis. Le test d'association simple-marqueur ne permet pas d'étudier tels variants et le coût des analyses à grande échelle de données de séquence reste prohibitif pour l'étude de maladies complexes. Notre design d'étude est une approche alternative qui repose sur la combinaison de données publiques de séquence aux données GWAS. Différents tests d'association pour l'étude de variants rares ont été récemment proposés mais leurs propriétés statistiques sont à ce jour mal connues. Par ailleurs, à l'échelle pan-génomique, les erreurs de type I et de type II de ces méthodes peuvent être influencées par certains facteurs comme la longueur du gène, l'hétérogénéité allélique dans le gène, le LD entre SNPs, le chevauchement entre gènes et la corrélation SNPs fréquents et maladie. J'ai évalué les propriétés statistiques de plusieurs de ces méthodes dans des données simulées et aussi dans nos données de MP. Nous montrons que plusieurs méthodes, basées sur le modèle linéaire mixte, sont mathématiquement équivalentes et que certaines sont des cas particuliers d'autres. En conclusion, nous avons développé des stratégies et méthodes d'analyse, combinant des approches complémentaires (Maladie commune-variant fréquent vs Maladie commune -variant rare) dans le but d'optimiser la caractérisation de la composante génétique de MP en particulier et de maladies complexes en générale
My thesis has focused on statistical methods and strategies to study the genetic components of complex human traits and especially of Parkinson's Disease (PD). My work was developed mainly in two contexts of genome wide association studies (GWAS): the detection of common variants and the detection of rare variants. GWAS is an optimal approach in which we have to control for the type I error and the type II error rates. Indeed, a large number of tests are performed. In addition, we must control for potential population stratification problems. Despite the large sample sizes in recent GWASs based on the single-marker test, they may have individually low power to detect common variants with small effects. The use of the multi-marker test may optimize the coverage of genetic variability and thus increase the power of GWAS. I have focused on the study of these tests, especially the "SNP-Set" test based on kernel machine regression and the haplotypic test. I studied the theoretical aspects of these tests and I evaluated the statistical properties in our empirical data for PD. In addition, in our analyses for PD, I developed imputation and meta-analysis techniques to increase the coverage of the genetic variability and the sample size. Association analysis for rare variants faces several challenges. The single marker test is not powerful to detect such variants and the cost of whole-genome sequence analyses for complex traits is still prohibitive. Our design is a cost-effective alternative which is based on the joint use of public sequence data and GWAS data. Several new tests have been proposed but, to date, their statistical properties are still unclear. On the genome-wide level, the type I error and the type II error rates may depend on several factors as gene length, allelic heterogeneity in the gene, LD between SNPs, overlap between genes and the correlation between the common variants and the trait. I evaluated the statistical properties of several methods in simulated data and also in our GWAS PD data. We show that several methods, based on the linear mixed model, are mathematically equivalent and some are special cases of others. In conclusion, we developed strategies and analytical methods which combine complementary approaches (Common Disease-Common Variant versus Common Disease-Rare Variant) to optimize the characterization of the genetic components of PD in particular and of complex traits in general
APA, Harvard, Vancouver, ISO, and other styles
29

Perthame, Emeline. "Stabilité de la sélection de variables pour la régression et la classification de données corrélées en grande dimension." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S122/document.

Full text
Abstract:
Les données à haut-débit, par leur grande dimension et leur hétérogénéité, ont motivé le développement de méthodes statistiques pour la sélection de variables. En effet, le signal est souvent observé simultanément à plusieurs facteurs de confusion. Les approches de sélection habituelles, construites sous l'hypothèse d'indépendance des variables, sont alors remises en question car elles peuvent conduire à des décisions erronées. L'objectif de cette thèse est de contribuer à l'amélioration des méthodes de sélection de variables pour la régression et la classification supervisée, par une meilleure prise en compte de la dépendance entre les statistiques de sélection. L'ensemble des méthodes proposées s'appuie sur la description de la dépendance entre covariables par un petit nombre de variables latentes. Ce modèle à facteurs suppose que les covariables sont indépendantes conditionnellement à un vecteur de facteurs latents. Une partie de ce travail de thèse porte sur l'analyse de données de potentiels évoqués (ERP). Les ERP sont utilisés pour décrire par électro-encéphalographie l'évolution temporelle de l'activité cérébrale. Sur les courts intervalles de temps durant lesquels les variations d'ERPs peuvent être liées à des conditions expérimentales, le signal psychologique est faible, au regard de la forte variabilité inter-individuelle des courbes ERP. En effet, ces données sont caractérisées par une structure de dépendance temporelle forte et complexe. L'analyse statistique de ces données revient à tester pour chaque instant un lien entre l'activité cérébrale et des conditions expérimentales. Une méthode de décorrélation des statistiques de test est proposée, basée sur la modélisation jointe du signal et de la dépendance à partir d'une connaissance préalable d'instants où le signal est nul. Ensuite, l'apport du modèle à facteurs dans le cadre général de l'Analyse Discriminante Linéaire est étudié. On démontre que la règle linéaire de classification optimale conditionnelle aux facteurs latents est plus performante que la règle non-conditionnelle. Un algorithme de type EM pour l'estimation des paramètres du modèle est proposé. La méthode de décorrélation des données ainsi définie est compatible avec un objectif de prédiction. Enfin, on aborde de manière plus formelle les problématiques de détection et d'identification de signal en situation de dépendance. On s'intéresse plus particulièrement au Higher Criticism (HC), défini sous l'hypothèse d'un signal rare de faible amplitude et sous l'indépendance. Il est montré dans la littérature que cette méthode atteint des bornes théoriques de détection. Les propriétés du HC en situation de dépendance sont étudiées et les bornes de détectabilité et d'estimabilité sont étendues à des situations arbitrairement complexes de dépendance. Dans le cadre de l'identification de signal, une adaptation de la méthode Higher Criticism Thresholding par décorrélation par les innovations est proposée
The analysis of high throughput data has renewed the statistical methodology for feature selection. Such data are both characterized by their high dimension and their heterogeneity, as the true signal and several confusing factors are often observed at the same time. In such a framework, the usual statistical approaches are questioned and can lead to misleading decisions as they are initially designed under independence assumption among variables. The goal of this thesis is to contribute to the improvement of variable selection methods in regression and supervised classification issues, by accounting for the dependence between selection statistics. All the methods proposed in this thesis are based on a factor model of covariates, which assumes that variables are conditionally independent given a vector of latent variables. A part of this thesis focuses on the analysis of event-related potentials data (ERP). ERPs are now widely collected in psychological research to determine the time courses of mental events. In the significant analysis of the relationships between event-related potentials and experimental covariates, the psychological signal is often both rare, since it only occurs on short intervals and weak, regarding the huge between-subject variability of ERP curves. Indeed, this data is characterized by a temporal dependence pattern both strong and complex. Moreover, studying the effect of experimental condition on brain activity for each instant is a multiple testing issue. We propose to decorrelate the test statistics by a joint modeling of the signal and time-dependence among test statistics from a prior knowledge of time points during which the signal is null. Second, an extension of decorrelation methods is proposed in order to handle a variable selection issue in the linear supervised classification models framework. The contribution of factor model assumption in the general framework of Linear Discriminant Analysis is studied. It is shown that the optimal linear classification rule conditionally to these factors is more efficient than the non-conditional rule. Next, an Expectation-Maximization algorithm for the estimation of the model parameters is proposed. This method of data decorrelation is compatible with a prediction purpose. At last, the issues of detection and identification of a signal when features are dependent are addressed more analytically. We focus on the Higher Criticism (HC) procedure, defined under the assumptions of a sparse signal of low amplitude and independence among tests. It is shown in the literature that this method reaches theoretical bounds of detection. Properties of HC under dependence are studied and the bounds of detectability and estimability are extended to arbitrarily complex situations of dependence. Finally, in the context of signal identification, an extension of Higher Criticism Thresholding based on innovations is proposed
APA, Harvard, Vancouver, ISO, and other styles
30

Salloum, Zahraa. "Maximum de vraisemblance empirique pour la détection de changements dans un modèle avec un nombre faible ou très grand de variables." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1008/document.

Full text
Abstract:
Cette thèse est consacrée à tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire ainsi que dans un modèle de régression linéaire en très grande dimension. Tout d'abord, nous proposons une méthode basée sur la vraisemblance empirique pour tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire. Sous l'hypothèse nulle, nous prouvons la consistance et la vitesse de convergence des estimateurs des paramètres de régression. La loi asymptotique de la statistique de test sous l'hypothèse nulle nous permet de trouver la valeur critique asymptotique. D'autre part, nous prouvons que la puissance asymptotique de la statistique de test proposée est égale à 1. Le modèle épidémique avec deux points de rupture est également étudié. Ensuite, on s'intéresse à construire les régions de confiance asymptotiques pour la différence entre les paramètres de deux phases d'un modèle non-linéaire avec des regresseurs aléatoires en utilisant la méthode de vraisemblance empirique. On montre que le rapport de la vraisemblance empirique a une distribution asymptotique χ2. La méthode de vraisemblance empirique est également utilisée pour construire les régions de confiance pour la différence entre les paramètres des deux phases d'un modèle non-linéaire avec des variables de réponse manquantes au hasard (Missing At Random (MAR)). Afin de construire les régions de confiance du paramètre en question, on propose trois statistiques de vraisemblance empirique : la vraisemblance empirique basée sur les données cas-complète, la vraisemblance empirique pondérée et la vraisemblance empirique par des valeurs imputées. On prouve que les trois rapports de vraisemblance empirique ont une distribution asymptotique χ2. Un autre but de cette thèse est de tester la présence d'un changement dans les coefficients d'un modèle linéaire en grande dimension, où le nombre des variables du modèle peut augmenter avec la taille de l'échantillon. Ce qui conduit à tester l'hypothèse nulle de non-changement contre l'hypothèse alternative d'un seul changement dans les coefficients de régression. Basée sur les comportements asymptotiques de la statistique de rapport de vraisemblance empirique, on propose une simple statistique de test qui sera utilisée facilement dans la pratique. La normalité asymptotique de la statistique de test proposée sous l'hypothèse nulle est prouvée. Sous l'hypothèse alternative, la statistique de test diverge
In this PHD thesis, we propose a nonparametric method based on the empirical likelihood for detecting the change in the parameters of nonlinear regression models and the change in the coefficient of linear regression models, when the number of model variables may increase as the sample size increases. Firstly, we test the null hypothesis of no-change against the alternative of one change in the regression parameters. Under null hypothesis, the consistency and the convergence rate of the regression parameter estimators are proved. The asymptotic distribution of the test statistic under the null hypothesis is obtained, which allows to find the asymptotic critical value. On the other hand, we prove that the proposed test statistic has the asymptotic power equal to 1. The epidemic model, a particular case of model with two change-points, under the alternative hypothesis, is also studied. Afterwards, we use the empirical likelihood method for constructing the confidence regions for the difference between the parameters of a two-phases nonlinear model with random design. We show that the empirical likelihood ratio has an asymptotic χ2 distribu- tion. Empirical likelihood method is also used to construct the confidence regions for the difference between the parameters of a two-phases nonlinear model with response variables missing at randoms (MAR). In order to construct the confidence regions of the parameter in question, we propose three empirical likelihood statistics : empirical likelihood based on complete-case data, weighted empirical likelihood and empirical likelihood with imputed va- lues. We prove that all three empirical likelihood ratios have asymptotically χ2 distributions. An another aim for this thesis is to test the change in the coefficient of linear regres- sion models for high-dimensional model. This amounts to testing the null hypothesis of no change against the alternative of one change in the regression coefficients. Based on the theoretical asymptotic behaviour of the empirical likelihood ratio statistic, we propose, for a deterministic design, a simpler test statistic, easier to use in practice. The asymptotic normality of the proposed test statistic under the null hypothesis is proved, a result which is different from the χ2 law for a model with a fixed variable number. Under alternative hypothesis, the test statistic diverges
APA, Harvard, Vancouver, ISO, and other styles
31

Manrique, Tito. "Functional linear regression models : application to high-throughput plant phenotyping functional data." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT264/document.

Full text
Abstract:
L'Analyse des Données Fonctionnelles (ADF) est une branche de la statistique qui est de plus en plus utilisée dans de nombreux domaines scientifiques appliqués tels que l'expérimentation biologique, la finance, la physique, etc. Une raison à cela est l'utilisation des nouvelles technologies de collecte de données qui augmentent le nombre d'observations dans un intervalle de temps.Les jeux de données fonctionnelles sont des échantillons de réalisations de fonctions aléatoires qui sont des fonctions mesurables définies sur un espace de probabilité à valeurs dans un espace fonctionnel de dimension infinie.Parmi les nombreuses questions étudiées par l'ADF, la régression linéaire fonctionnelle est l'une des plus étudiées, aussi bien dans les applications que dans le développement méthodologique.L'objectif de cette thèse est l'étude de modèles de régression linéaire fonctionnels lorsque la covariable X et la réponse Y sont des fonctions aléatoires et les deux dépendent du temps. En particulier, nous abordons la question de l'influence de l'histoire d'une fonction aléatoire X sur la valeur actuelle d'une autre fonction aléatoire Y à un instant donné t.Pour ce faire, nous sommes surtout intéressés par trois modèles: le modèle fonctionnel de concurrence (Functional Concurrent Model: FCCM), le modèle fonctionnel de convolution (Functional Convolution Model: FCVM) et le modèle linéaire fonctionnel historique. En particulier pour le FCVM et FCCM nous avons proposé des estimateurs qui sont consistants, robustes et plus rapides à calculer par rapport à d'autres estimateurs déjà proposés dans la littérature.Notre méthode d'estimation dans le FCCM étend la méthode de régression Ridge développée dans le cas linéaire classique au cadre de données fonctionnelles. Nous avons montré la convergence en probabilité de cet estimateur, obtenu une vitesse de convergence et développé une méthode de choix optimal du paramètre de régularisation.Le FCVM permet d'étudier l'influence de l'histoire de X sur Y d'une manière simple par la convolution. Dans ce cas, nous utilisons la transformée de Fourier continue pour définir un estimateur du coefficient fonctionnel. Cet opérateur transforme le modèle de convolution en un FCCM associé dans le domaine des fréquences. La consistance et la vitesse de convergence de l'estimateur sont obtenues à partir du FCCM.Le FCVM peut être généralisé au modèle linéaire fonctionnel historique, qui est lui-même un cas particulier du modèle linéaire entièrement fonctionnel. Grâce à cela, nous avons utilisé l'estimateur de Karhunen-Loève du noyau historique. La question connexe de l'estimation de l'opérateur de covariance du bruit dans le modèle linéaire entièrement fonctionnel est également traitée. Finalement nous utilisons tous les modèles mentionnés ci-dessus pour étudier l'interaction entre le déficit de pression de vapeur (Vapour Pressure Deficit: VPD) et vitesse d'élongation foliaire (Leaf Elongation Rate: LER) courbes. Ce type de données est obtenu avec phénotypage végétal haut débit. L'étude est bien adaptée aux méthodes de l'ADF
Functional data analysis (FDA) is a statistical branch that is increasingly being used in many applied scientific fields such as biological experimentation, finance, physics, etc. A reason for this is the use of new data collection technologies that increase the number of observations during a time interval.Functional datasets are realization samples of some random functions which are measurable functions defined on some probability space with values in an infinite dimensional functional space.There are many questions that FDA studies, among which functional linear regression is one of the most studied, both in applications and in methodological development.The objective of this thesis is the study of functional linear regression models when both the covariate X and the response Y are random functions and both of them are time-dependent. In particular we want to address the question of how the history of a random function X influences the current value of another random function Y at any given time t.In order to do this we are mainly interested in three models: the functional concurrent model (FCCM), the functional convolution model (FCVM) and the historical functional linear model. In particular for the FCVM and FCCM we have proposed estimators which are consistent, robust and which are faster to compute compared to others already proposed in the literature.Our estimation method in the FCCM extends the Ridge Regression method developed in the classical linear case to the functional data framework. We prove the probability convergence of this estimator, obtain a rate of convergence and develop an optimal selection procedure of theregularization parameter.The FCVM allows to study the influence of the history of X on Y in a simple way through the convolution. In this case we use the continuous Fourier transform operator to define an estimator of the functional coefficient. This operator transforms the convolution model into a FCCM associated in the frequency domain. The consistency and rate of convergence of the estimator are derived from the FCCM.The FCVM can be generalized to the historical functional linear model, which is itself a particular case of the fully functional linear model. Thanks to this we have used the Karhunen–Loève estimator of the historical kernel. The related question about the estimation of the covariance operator of the noise in the fully functional linear model is also treated.Finally we use all the aforementioned models to study the interaction between Vapour Pressure Deficit (VPD) and Leaf Elongation Rate (LER) curves. This kind of data is obtained with high-throughput plant phenotyping platform and is well suited to be studied with FDA methods
APA, Harvard, Vancouver, ISO, and other styles
32

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire." Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Labit, Yann. "Contribution à la commande non linéaire par des approches linéaires." Phd thesis, INSA de Toulouse, 2002. http://tel.archives-ouvertes.fr/tel-00131792.

Full text
Abstract:
Cette thèse s'inscrit dans le thème des travaux relatifs aux techniques linéaires pour la maîtrise des systèmes non linéaires. Il s'agit d'une approche qui consiste à approximer le système non linéaire par un ensemble de systèmes linéaires incertains pour lesquels sont déterminées des commandes via les méthodes classiques des systèmes linéaires (LQ, LQG, placement de pôles, H2, H¥, etc). La commande globale consiste en un séquencement des gains locaux en fonction de l'état mesuré sur le système. Nombre d'approches multi-modèles qui vont dans cette direction comportent un degré d'imprécision, d'approximation assez élevé. Pour ce type d'approche, l'évaluation des performances et leur validation ne peut passer que par des simulations, un moyen, qui pour être à peu près convaincant, se doit d'être très lourd. L'approche développée ici a pour ambition de proposer une synthèse pas à pas de commande qui permette d'assurer un certain niveau de performances garanties. Le premier pas dans cette direction est fourni par la technique qui permet d'approximer le système non linéaire par un ensemble de systèmes linéaires (système linéaire par morceaux) avec un niveau de précision prédéfini et paramétré. Le deuxième pas est l'utilisation de méthodes de commande robustes à base de LMIs, qui vont permettre d'assurer la stabilité locale dans un domaine non infinitésimal de l'espace d'état. L'approche permet de maîtriser la complexité de la commande globale et des techniques de séquencement en permettant l'obtention d'une cardinalité raisonnable pour l'ensemble des systèmes linéaires approximants. Cette approche est illustrée sur des applications réalistes: un pendule inversé simple, un moteur et un panneau solaire.
APA, Harvard, Vancouver, ISO, and other styles
34

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles." Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Full text
Abstract:
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
APA, Harvard, Vancouver, ISO, and other styles
35

Hamadeh, Tawfik. "Inférence statistique de modèles GARCH non linéaires." Lille 3, 2010. http://www.theses.fr/2010LIL30048.

Full text
Abstract:
Dans cette thèse, nous étudions les problèmes d'estimation et de tests d'hypothèses de deux vastes classes de modèles GARCH non linéaires. Tout d'abord, nous considérons plusieurs méthodes d'estimation d'une classe de modèles GARCH à seuil en puissance. Sous des conditions très faibles, nous étudions les propriétés asymptotiques de ces estimateurs dans les deux situations suivantes. Dans un premier temps nous supposons la puissance connue. Nous établissons les propriétés de l'estimateur du quasi-maximum de vraisemblance (QMV). Nous considérons également deux suites d'estimateurs des moindres-carrés ordinaires, dans le cas ARCH pur du modèle et nous montrons que, pour certaines valeurs de la puissance, ces estimateurs peuvent être plus efficaces que l'estimateur du QMV. Dans un second temps nous considérons le cas où la puissance est inconnue, et est conjointement estimée avec les autres paramètres. Les propriétés asymptotiques du QMV sont établies sous l'hypothèse que le bruit a une densité. De plus, nous étudions une classe d'estimateurs qu quasi-maximum de vraisemblance non gaussiens dans la situation concrète où la densité des erreurs est mal spécifiée. Nous montrons que cette classe d'estimateurs peut fournir des alternatives performantes à l'estimateur du QMV standard, en particulier, lorsque les erreurs ont des queues de distribution épaisses. Des tests d'asymétrie sont proposés. Dans la deuxième partie de cette thèse, nous introduisons une classe générale de processus GARCH faibles contenant une grande famille de modèles à hétéroscédasticité conditionnelle. Nous proposons une représentation consistant en deux équations ARMA : la première porte sur le processus observé, et la deuxième sur une certaine fonction de l'innovation linéaire du processus observé. Sous des hypothèses d'ergodicité et de mélange, er certaines conditions des moments sur le processus observé, nous établissons la convergence et la normalité asymptotique de l'estimateur des moindres carrés en deux étapes. Nous considérons également l'estimation de la matrice de covariance asymptotique de cet estimateur. La plupart de ces résultats asymptotiques sont illustrés par des expériences de simulation et sont appliqués à des séries financières
This thesis is devoted to the statistical inference of two wide classes of non linear GARCH models. Firstly, several estimation methods of a class of power-transformed treshold GARCH models are considered in two situations. When the power of the transformation is known, the asymptotic properties of the quasi-maximum likelihood estimator (QMLE) are established under mild conditions. Two sequences of least-squares estimators are also considered in the pure ARCH case, and it is shown that they can be asymptotically more accurate than the QMLE for certain power transformations. In the case where the power of the transformation is jointly estimated with others parameters, the asymptotic properties of the QMLE are proven under the assumption that the noise has a density. Moreover, we establish the consistency and the asymptotic normality of a class of non-gaussian QML estimators in the case where alternatives to the classical QML estimator, especially, when the rescaled errors are heavy tailed. In the second part of this thesis, we introduce a general class of weak GARCH processes with contains a large family of volability models. This representation consists of two ARMA equations, the first one on the observed process and the second one on a function of its linear innovation. Under some moment conditions, strong mixing and stationarity assumptions, the asymptotic properties of two-stage least-squares estimator for the proposed model are established. We also consider the estimation of the asymptotic covariance matrix of this estimator
APA, Harvard, Vancouver, ISO, and other styles
36

Buatois, Simon. "Novel pharmacometric methods to improve clinical drug development in progressive diseases." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC133.

Full text
Abstract:
Suite aux progrès techniques et méthodologiques dans le secteur de la modélisation, l’apport de ces approches est désormais reconnu par l’ensemble des acteurs de la recherche clinique et pourrait avoir un rôle clé dans la recherche sur les maladies progressives. Parmi celles-ci les études pharmacométriques (PMX) sont rarement utilisées pour répondre aux hypothèses posées dans le cadre d’études dites de confirmation. Parmi les raisons évoquées, les analyses PMX traditionnelles ignorent l'incertitude associée à la structure du modèle lors de la génération d'inférence statistique. Or, ignorer l’étape de sélection du modèle peut aboutir à des intervalles de confiance trop optimistes et à une inflation de l’erreur de type I. Pour y remédier, nous avons étudié l’apport d’approches PMX innovantes dans les études de choix de dose. Le « model averaging » couplée à un test du rapport de « vraisemblance combiné » a montré des résultats prometteurs et tend à promouvoir l’utilisation de la PMX dans les études de choix de dose. Pour les études dites d’apprentissage, les approches de modélisation sont utilisées pour accroitre les connaissances associées aux médicaments, aux mécanismes et aux maladies. Dans cette thèse, les mérites de l’analyse PMX ont été évalués dans le cadre de la maladie de Parkinson. En combinant la théorie des réponses aux items à un modèle longitudinal, l’analyse PMX a permis de caractériser adéquatement la progression de la maladie tout en tenant compte de la nature composite du biomarqueur. Pour conclure, cette thèse propose des méthodes d’analyses PMX innovantes pour faciliter le développement des médicaments et/ou les décisions des autorités réglementaires
In the mid-1990, model-based approaches were mainly used as supporting tools for drug development. Restricted to the “rescue mode” in situations of drug development failure, the impact of model-based approaches was relatively limited. Nowadays, the merits of these approaches are widely recognised by stakeholders in healthcare and have a crucial role in drug development for progressive diseases. Despite their numerous advantages, model-based approaches present important drawbacks limiting their use in confirmatory trials. Traditional pharmacometric (PMX) analyses relies on model selection, and consequently ignores model structure uncertainty when generating statistical inference. The problem of model selection is potentially leading to over-optimistic confidence intervals and resulting in a type I error inflation. Two projects of this thesis aimed at investigating the value of innovative PMX approaches to address part of these shortcomings in a hypothetical dose-finding study for a progressive disorder. The model averaging approach coupled to a combined likelihood ratio test showed promising results and represents an additional step towards the use of PMX for primary analysis in dose-finding studies. In the learning phase, PMX is a key discipline with applications at every stage of drug development to gain insight into drug, mechanism and disease characteristics with the ultimate goal to aid efficient drug development. In this thesis, the merits of PMX analysis were evaluated, in the context of Parkinson’s disease. An item-response theory longitudinal model was successfully developed to precisely describe the disease progression of Parkinson’s disease patients while acknowledging the composite nature of a patient-reported outcome. To conclude, this thesis enhances the use of PMX to aid efficient drug development and/or regulatory decisions in drug development
APA, Harvard, Vancouver, ISO, and other styles
37

Paccard, Caroline. "Développement d'outils statistiques pour la mise en place de boucles de régulation en microélectronique." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/536/.

Full text
Abstract:
En microélectronique, le contrôle des procédés classique n'est plus suffisant pour les nouvelles technologies. Ainsi, un contrôle plus fin du procédé est réalisé à l'aide de boucles de régulation. Cette thèse propose la création et la mise en pratique d'une méthodologie statistique pour la mise en place de boucles de régulation en microélectronique. Cette méthodologie reste générale et peut se transposer aisément à d'autres domaines industriels. Les boucles de régulation nous ont tout d'abord amené à nous interroger sur la fiabilité de la mesure. Nous avons ainsi crée un nouvel indicateur de variabilité de la mesure, appelé capabilité globale, qui s'applique lorsqu'un paramètre est mesuré par plusieurs équipements de métrologie. Une solution opérationnelle a également été proposée par la création et de la mise en production d'un logiciel de calcul de capabilité. Une fois définie la méthodologie de mise en œuvre d'une boucle de régulation, celle-ci est appliquée à un atelier de polissage. Ceci a nécessité une modélisation originale du procédé de fabrication à l'aide du modèle linéaire mixte. Nous avons également comparé et optimisé différents algorithmes de régulation (EWMA, double EWMA, filtre de Kalman. . . ). Pour des raisons évidentes de coût, les différents algorithmes de régulation ne peuvent pas être testés et comparés en production. Nous avons ainsi proposé une simulation du procédé sur la base de données mesurées en production et d'un modèle du procédé. Celle-ci permet de prédire et comparer ce que serait le comportement des algorithmes de régulation en production. Un algorithme optimal a alors été choisi pour l'atelier de polissage
In semiconductor manufacturing, classical process control is no sufficient anymore for new technologies. A more accurate control can be achieved with closed-loop control (run-to-run). This thesis designs a statistical methodology aimed at deploying closed-loop control in semiconductor manufacturing. This methodology remains general and can be easily transposed to other industries. Studying closed-loop control, we have come to the issue of measurement reliability. Thus we have created a new indicator of measurement variability, called global capability, which can be applied when one parameter is measured by several metrology tools. An operational solution has been proposed through a software creation. It has been implemented and put into production to compute this new indicator. After its definition, the methodology for closed-loop control design has been applied to a polishing process. It has conducted us to an original process modeling thanks to a linear mixed model. We have also compared and optimized several regulation algorithms (EWMA, double EWMA, Kalman filter. . . ). For cost reasons, the considered regulation algorithms could not be all tested and compared in production. As a result, we have designed a process simulation based on production data and on a process modeling. This simulation can predict and compare what will be the regulation algorithm behavior in production. For the polishing process, an optimal algorithm has been chosen
APA, Harvard, Vancouver, ISO, and other styles
38

Semenou, Michel. "Construction de plans expérimentaux et propriétés de modèles linéaires généralisés mal spécifiés : application à une étude de fiabilité." Toulouse 3, 1994. http://www.theses.fr/1994TOU30006.

Full text
Abstract:
On s'interesse a des courbes de type dose-reponse et plus particulierement a l'estimation d'un quantile correspondant a une probabilite de reponse donnee. On se place pour cela dans le cadre du modele lineaire generalise. Dans un premier temps, on presente une methode de construction sequentielle d'un plan experimental en vue de l'estimation de ce parametre d'interet et ce, en envisageant plusieurs modeles pour la courbe de reponse. Les resultats obtenus sont compares a ceux issus de methodes proposees dans la litterature. Dans un deuxieme temps, on etudie les proprietes asymptotiques de l'estimateur du maximum de vraisemblance de ce quantile dans le cas ou le modele considere pour la description de la courbe dose-reponse est mal specifie. On determine alors a partir de quelle taille d'echantillon il est preferable de retenir un modele comportant plus de parametres conduisant a une meilleure estimation du quantile d'interet au sens de l'erreur quadratique moyenne
APA, Harvard, Vancouver, ISO, and other styles
39

Homkham, Nontiya. "Long-Term Evolution Of Lipids In Thai HIV-Infected Patients On Treatment." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS094.

Full text
Abstract:
Le traitement par éfavirenz, un médicament antirétroviral, a été associé avec des changements de profil lipidique potentiellement défavorables. Ce travail a abordé la question de savoir si ces effets dépendent des concentrations plasmatiques d’éfavirenz et, dans ce cas, si sa posologie pourrait être optimisée sans perte d'efficacité.Un modèle de pharmacocinétique de population a été développé à partir de données d’enfants infectés par le VIH. La simulation d’une population normalisée sous éfavirenz aux posologies recommandées montre que 15 % des enfants auraient des concentrations insuffisantes 12 heures après la prise, ce qui serait associé à un risque de la réplication virale de 23 %.Pour décrire la relation entre taux plasmatiques d'éfavirenz et changements de taux de cholestérol, des modèles de pharmacocinétique-pharmacodynamique (PK-PD) de réponse indirecte ont été développés. Le modèle sélectionné prédit que les taux d’éfavirenz individuels sont associés à une augmentation des lipoprotéines de haute densité sur 5 ans, et des lipoprotéines de basse densité durant 4 mois avec un retour progressif aux valeurs de base.Pour évaluer l’impact des concentrations d'éfavirenz sur l'efficacité, un modèle dynamique PK-PD a décrit la relation entre ces concentrations et l’évolution de la charge virale VIH et du taux de CD4. Un score d’efficacité a été développé sur la base d’hypothèses pharmacodynamiques pour prédire le risque de la réplication virale.L’utilisation de l’éfavirenz aux posologiques recommandées par la Food and Drug Administration aux Etats-Unis semble assurer une efficacité optimale et des changements potentiellement favorables dans les fractions de cholestérol
As other antiretroviral drugs, treatment with efavirenz has been associated with potentially unfavorable lipid profile changes in adults and in children. The thesis addressed the question of whether these changes depend on efavirenz plasma concentrations and if dose adjustments could be envisioned without loss of efficacy.To estimate individual efavirenz exposure over 24 hours, a population pharmacokinetic model was developed using data from HIV infected children. Simulations for a normalized population receiving efavirenz dosed according recommendations predicted that 15% of children would have insufficient mid dose concentrations, associated with a 23% risk of viral replication.To describe the relationship between efavirenz concentrations and cholesterol changes, population pharmacokinetic-pharmacodynamic (PK-PD) indirect response models were developed. The selected model predicted that individual efavirenz concentrations were associated with an increase in high-density lipoprotein concentrations over 5 years but with an increase in low-density lipoprotein concentrations only during the first 4 months of treatment followed by a gradual return to baseline.To study the importance of efavirenz concentrations with regard to efficacy, a PK-PD dynamics model was developed to describe the relationship between concentrations and HIV RNA load and CD4 cell count evolutions. A score was defined based on a pharmacodynamic hypothesis to predict the risk of viral replication.Using US Food and Drug Administration dosing recommendations in children ensure optimal efficacy and potentially favorable changes in cholesterol fractions
APA, Harvard, Vancouver, ISO, and other styles
40

Valade, Charles. "Développement d'une méthodologie adaptée à l'industrie microélectronique pour la reconstruction topographique par imagerie SEM à faisceau inclinable." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT015.

Full text
Abstract:
Avec l’avancée des technologies de la microélectronique, l’architecture des composants électroniques devient de plus en plus compliquée. Or, la connaissance des caractéristiques dimensionnelles des structures réalisées est importante pour pouvoir comprendre et optimiser le comportement de ces composants. C’est pourquoi il existe un besoin de développer des méthodes de mesure tridimensionnelles rapides et non destructives.Le microscope électronique à balayage (SEM) est largement utilisé pour réaliser des mesures dimensionnelles car il répond aux problématiques de rapidité et de non-destructivité. Cependant l’obtention d’informations tridimensionnelles quantitatives et précises est un challenge.Grâce à un microscope électronique dont le faisceau électronique peut être incliné, il est possible d’obtenir des images à différents angles de vue. A partir de l’analyse de ces images, la hauteur et l’angle des flancs du motif observé peuvent être déterminés géométriquement.Cependant, l’imagerie électronique étant le résultat des interactions électrons-matière, il est important de comprendre l’origine de la formation des images SEM, pour pouvoir les analyser correctement. C’est pourquoi une étude a été menée grâce à un logiciel de simulation physique pour observer et comprendre l’impact de la topographie d’un motif sur l’image SEM résultante.A partir de ces observations, des métriques ont été créées sur les images SEM pour les analyser quantitativement. Un modèle linéaire a ensuite été créé grâce aux simulations physiques pour estimer les grandeurs topographiques à partir de ces métriques. Il a ensuite été calibré sur des mesures SEM réelles, en les comparant à des mesures tridimensionnelles de référence par microscopie à force atomique (AFM). Ce modèle a été créé pour la reconstruction de motifs de type "ligne" en silicium gravé. Grâce à ce modèle, des reconstructions de motifs réelles ont été réalisées. Enfin un travail sur la création d’un modèle pour les motifs de type "tranchée" et "dense" en silicium gravé a été initié
With the advancement of microelectronics technologies, the architecture of electronic components is becoming increasingly complicated. However, knowledge of the dimensional characteristics of the structures is important in order to be able to understand and optimize the behavior of these components. This is why there is a need to develop rapid, non-destructive three-dimensional measurement methods.The scanning electron microscope (SEM) is widely used to carry out dimensional measurements because it responds to the problems of speed and non-destructivity. However, obtaining quantitative and precise three-dimensional information is a challenge.Thanks to an electron microscope whose electron beam can be tilted, it is possible to obtain images at different viewing angles. From the analysis of these images, the height and the sidewall angles of the observed pattern can be determined geometrically.However, since electronic imaging is the result of electron-matter interactions, it is important to understand the origin of the formation of SEM images, in order to be able to analyze them correctly. This is why a study was carried out using physical simulation software to observe and understand the impact of the topography of a pattern on the resulting SEM image.From these observations, metrics were created on the SEM images to analyze them quantitatively.A linear model was then created using physical simulations to estimate the topographic quantities from these metrics. It was then calibrated on real SEM measurements, by comparing them to three-dimensional reference measurements by atomic force microscopy (AFM). This model was created for the reconstruction of “line” type patterns in etched silicon. Thanks to this model, reconstructions of real patterns were made. Finally, work was started on the creation of a model for "trench" and "dense" type patterns in etched silicon
APA, Harvard, Vancouver, ISO, and other styles
41

Alata, Olivier. "Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique." Habilitation à diriger des recherches, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00573224.

Full text
Abstract:
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
APA, Harvard, Vancouver, ISO, and other styles
42

Padilla, Arturo. "Identification récursive de systèmes continus à paramètres variables dans le temps." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0119/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire traitent de l'identification des systèmes dynamiques représentés sous la forme de modèles linéaires continus à paramètres variant lentement au cours du temps. La complexité du problème d'identification provient d'une part du caractère inconnu de la loi de variation des paramètres et d'autre part de la présence de bruits de nature inconnue sur les signaux mesurés. Les solutions proposées s'appuient sur une combinaison judicieuse du filtre de Kalman en supposant que les variations des paramètres peuvent être représentées sous la forme d'une marche aléatoire et de la méthode de la variable instrumentale qui présente l'avantage d'être robuste vis à vis de la nature des bruits de mesure. Les algorithmes de type récursif sont développés dans un contexte d'identification en boucle ouverte et en boucle fermée. Les différentes variantes se distinguent par la manière dont est construit la variable instrumentale. Inspirée de la solution développée pour les systèmes linéaires à temps invariant, une construction adaptative de la variable instrumentale est suggérée pour pouvoir suivre au mieux l'évolution des paramètres. Les performances des méthodes développées sont évaluées à l'aide de simulations de Monte Carlo et montrent la suprématie des solutions proposées s'appuyant sur la variable instrumentale par rapport celles plus classiques des moindres carrés récursifs. Les aspects pratiques et d'implantation numérique sont d'une importance capitale pour obtenir de bonnes performances lorsque ces estimateurs sont embarqués. Ces aspects sont étudiés en détails et plusieurs solutions sont proposées non seulement pour robustifier les estimateurs vis à vis du choix des hyper-paramètres mais également vis à vis de leur implantation numérique. Les algorithmes développés sont venus enrichir les fonctions de la boîte à outils CONTSID pour Matlab. Enfin, les estimateurs développés sont exploités pour faire le suivi de paramètres de deux systèmes physiques : un benchmark disponible dans la littérature constitué d'un filtre électronique passe-bande et une vanne papillon équipant les moteurs de voiture. Les deux applications montrent le potentiel des approches proposées pour faire le suivi de paramètres physiques variant lentement dans le temps
The work presented in this thesis deals with the identification of dynamic systems represented through continuous-time linear models with slowly time-varying parameters. The complexity of the identification problem comes on the one hand from the unknown character of the parameter variations and on the other hand from the presence of noises of unknown nature on the measured signals. The proposed solutions rely on a judicious combination of the Kalman filter assuming that the variations of the parameters can be represented in the form of a random walk, and the method of the instrumental variable which has the advantage of being robust with respect to the nature of the measurement noises. The recursive algorithms are developed in an open-loop and closed-loop identification setting. The different variants are distinguished by the way in which the instrumental variable is built. Inspired by the solution developed for time-invariant linear systems, an adaptive construction of the instrumental variable is suggested in order to be able to follow the evolution of the parameters as well as possible. The performance of the developed methods are evaluated using Monte Carlo simulations and show the supremacy of the proposed solutions based on the instrumental variable compared with the more classical least squares based approaches. The practical aspects and implementation issues are of paramount importance to obtain a good performance when these estimators are used. These aspects are studied in detail and several solutions are proposed not only to robustify the estimators with respect to the choice of hyperparameters but also with respect to their numerical implementation. The algorithms developed have enhanced the functions of the CONTSID toolbox for Matlab. Finally, the developed estimators are considered in order to track parameters of two physical systems: a benchmark available in the literature consisting of a bandpass electronic filter and a throttle valve equipping the car engines. Both applications show the potential of the proposed approaches to track physical parameters that vary slowly over time
APA, Harvard, Vancouver, ISO, and other styles
43

Hamouda, Makram. "Perturbations singulières pour des EDP linéaires et non linéaires en présence de singularités." Paris 11, 2001. https://tel.archives-ouvertes.fr/tel-00001931.

Full text
Abstract:
Ma thèse porte sur l'étude des couches limites et de perturbations singulières (i. E. Caractérisées par la présence d'un petit paramètre qui tend vers zéro) dans des conditions plus délicates que d'habitude, à savoir lorsque la solution limite n'est pas régulière. Je considère ainsi deux classes de problèmes réguliers associes à un laplacien et à un bilaplacien, et un problème non linéaire dérivé du problème de Plateau (surfaces minimas), pour lequel la fonction limite a une dérivée normale infinie sur certaines parties de la frontière. La première partie de cette thèse est consacrée pour l'étude de deux modèles linéaires singuliers associés à des perturbations singulières. En fait, la présence d'un petit paramètre dans des équations aux dérivées partielles entraîne l'apparition d'une couche limite classique près du bord du domaine pour la solution dite régularisée. Cependant, si on considère en plus une fonction source discontinue (voire une distribution), on constate qu'une nouvelle couche limite apparaisse à l'intérieur du domaine; l'étude de celle-ci constitue le principal but de cette première partie. Dans la deuxième partie, on s'intéresse à l'étude du problème des surfaces minimales sur une couronne. Pour quelques données au bord, ce problème n'admet pas de solution et sa solution faible dite "généralisée" admet une dérivée infinie. On introduit alors une méthode de régularisation elliptique qui entraîne une couche limite près du bord. Le résultat fondamental de cette partie consiste à donner explicitement une approximation pour cette solution régularisée
In my thesis, we study some singular perturbation problems (i. E characterized by the presence of a small parameter) which develop boundary layers in some conditions more delicate than usually, namely when the limit solution is not regular. I consider then two classes of regular problems associated to Laplacian and bilaplacian, and a nonlinear problem derived from the Plateau problem (minimal surfaces), for which the limit function has an infinite normal derivative on some parts of the boundary of the domain. The first part of this thesis is concerned with the study of two singular linear models associated to non classical singular perturbations. In fact, the presence of a small parameter in the partial differential equations involve the appearance of classical boundary layers near the boundary for the regularized solution. However, if we consider moreover a discontinuous source function (even a distribution), we note the appearance of non classical boundary layers in the interior of the domain; the study of these boundary layers consists the main object of this first part. In the second part of my thesis, i am interesting to study the minimal surfaces problem on a domain formed by two concentric circles. For some boundary data, this problem do not have any solution and its weak solution called "the generalized solution" has an infinite gradient. To solve this difficulty, we introduce an elliptic regularsation which involve boundary layers near the boundary. The main result of this part consists to give some representation formulas of the solutions, of some approximate solutions, and some estimates of the order of convergence
APA, Harvard, Vancouver, ISO, and other styles
44

Vera, Carine. "Modèles linéaires mixtes multiphasiques pour l'analyse de données longitudinales : Application à la croissance des plantes." Montpellier 2, 2004. http://www.theses.fr/2004MON20161.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Marin, Jean-Michel. "Statistiques des modèles à structure de covariance bande-diagonale linéaire." Toulouse 3, 2001. http://www.theses.fr/2001TOU30123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Le, Thi Xuan Mai. "Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0006/document.

Full text
Abstract:
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance
The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
APA, Harvard, Vancouver, ISO, and other styles
47

Launay, Tristan. "Méthodes Bayésiennes pour la prévision de consommation d’électricité." Nantes, 2012. http://www.theses.fr/2012NANT2074.

Full text
Abstract:
Dans ce manuscrit, nous développons des outils de statistique bayésienne pour la prévision de consommation d’électricité en France. Nous prouvons tout d’abord la normalité asymptotique de la loi a posteriori (théorème de Bernstein-von Mises) pour le modèle linéaire par morceaux de part chauffage et la consistance de l’estimateur de Bayes. Nous décrivons ensuite la construction d’une loi a priori informative afin d’améliorer la qualité des prévisions d’un modèle de grande dimension en situation d’historique court. A partir de deux exemples impliquant les clients non télérelevés de EDF, nous montrons notamment que la méthode proposée permet de rendre l’évaluation du modèle plus robuste vis-à-vis du manque de données. Nous proposons enfin un nouveau modèle dynamique, non-linéaire, pour prévoir la consommation d’électricité en ligne. Nous construisons un algorithme de filtrage particulaire afin d’estimer ce modèle et comparons les prévisions obtenues aux prévisions opérationnelles utilisées au sein d’EDF
In this manuscript, we develop Bayesian statistics tools to forecast the French electricity load. We first prove the asymptotic normality of the posterior distribution (Bernstein-von Mises theorem) for the piecewise linear regression model used to describe the heating effect and the consistency of the Bayes estimator. We then build a a hierarchical informative prior to help improve the quality of the predictions for a high dimension model with a short dataset. We typically show, with two examples involving the non metered EDF customers, that the method we propose allows a more robust estimation of the model with regard to the lack of data. Finally, we study a new nonlinear dynamic model to predict the electricity load online. We develop a particle filter algorithm to estimate the model et compare the predictions obtained with operationnal predictions from EDF
APA, Harvard, Vancouver, ISO, and other styles
48

Saidi, Youssef. "Etude probabiliste et statistique de modèles conditionnellement hétéroscédastiques non linéaires." Lille 3, 2003. http://www.theses.fr/2003LIL30020.

Full text
Abstract:
Nous étudions une classe de modèles conditionnellement hétéroscédastiques (ARCH) non linéaires. La volatilité de la variable à la date t dépend de la position relative des variables passées. Nous montrons qu'une famille de tels modèles admet une représentation Markovienne permettant d'en étudier la stabilité. A partir de critères de Lyapounov, nous établissons des conditions d'existence des moments. Les propriétés asymptotiques (convergence forte et en loi) de trois types d'estimateurs des paramètres sont établies. Ces résultats sont illustrés à distance finie à partir de méthodes simulées et sur des séries réelles
APA, Harvard, Vancouver, ISO, and other styles
49

Vauglin, François. "Modèles statistiques des imprécisions géométriques des objets géographiques linéaires." Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0010.

Full text
Abstract:
Cette these, placee dans la perspective des travaux sur la qualite des donnees geographiques, presente trois modelisations des incertitudes geometriques des donnees geographiques lineaires. Le rapport, articule en trois chapitres, debute par l'etude des concepts sur la qualite des donnees geographiques et sur les outils qui la manipulent, pour montrer l'interet du sujet etudie : nous cherchons des outils d'evaluation et de mise en forme de la qualite geometrique pour modeliser les incertitudes geometriques et valider la modelisation etablie sur des applications. Le choix d'une methode de mesure des incertitudes geometriques s'est fait au vu de la capacite de la methode retenue a evaluer les ecarts de geometrie tant pour des lots de donnees que pour de simples objets lineaires individuels. La methode retenue est fondee sur les composantes de la distance de hausdorff. L'application de cette methode sur des donnees reelles a fonde la demarche de modelisation. Differents modeles sont proposes : modele de l'incertitude de positionnement d'un point quelconque d'une polyligne (modele dit ges, pour gaussienne et exponentielle symetrique) ; modele sur la dependance relative des incertitudes le long d'une polyligne (modele hybride de variogramme de pepite, lineaire generalise et periodique) ; modele sur l'incertitude introduite par la representation des donnees lineaires par des polylignes (modele par mouvements browniens fractionnaires). Les relations qu'il a ete possible d'etablir entre ces trois modeles sont fournies. Differentes utilisations des modeles sont proposees : simulation pour generer des incertitudes selon les modeles ges et de mouvement brownien fractionnaire, et propagation du modele ges sur des operations geometriques elementaires comme le calcul de distance et le regroupement de points. Cette utilisation des modeles proposes montre leurs apports et leurs interets, theoriques et pratiques
APA, Harvard, Vancouver, ISO, and other styles
50

Khaled, Mohamad. "Estimation bayésienne de modèles espace-état non linéaires." Paris 1, 2008. http://www.theses.fr/2008PA010048.

Full text
Abstract:
Cette thèse introduit deux nouvelles classes de modèles espace-état non linéaires et établit des algorithmes nécessaires à leur estimation dans un cadre bayésien. La première classe est une généralisation multivariée des modèles à changement de régime markovien dans le sens où elle permet l'incorporation de plusieurs varaiables latentes. Cette méthodologie est illustrée par une application en finance où un modèle de volatilité stochastique multivariéee avec plusieurs variables latentes discrètes est estimé sur des rendements de portefeuille. La deuxième classe, appelée modèles espace-état quartiques, permet l'étude de dynamique de lois bimodales dans un cadre très général. Une illustration sur une base longitudinale de produits intérieurs bruts montre l'évolution des deux modes de la distribution du revenu mondial et caractérise la convergence entre différents groupes de pays.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography