To see the other types of publications on this topic, follow the link: Modèle autorégressive.

Dissertations / Theses on the topic 'Modèle autorégressive'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle autorégressive.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

DELLAGI, WASSIMA. "Estimation empirique de la partie autorégressive d'un modèle Arma vectoriel." Paris 11, 1991. http://www.theses.fr/1991PA112179.

Full text
Abstract:
Nous proposons dans cette these un nouvel estimateur empirique de la partie autoregressive d'un processus arma. Son avantage est d'avoir de bonnes proprietes asymptotiques dans un cadre tres general. Dans la premiere partie, on explore le comportement presque-sur et en loi de cet estimateur pour un modele arma vectoriel dans les cas suivants: stable, non explosif et general. Dans la deuxieme partie, on l'etudie dans un cadre particulier qui est celui du modele arma(1,1) stable et du modele arma(1,1) non ergodique. A partir de cet estimateur, on construit des estimateurs implicites des parametres de la moyenne mobile
APA, Harvard, Vancouver, ISO, and other styles
2

Ebeido, Kebieh Amira. "Test d'hypothèses et modèles aléatoires autorégressifs." Paris 2, 1987. http://www.theses.fr/1987PA020091.

Full text
Abstract:
Le travail presente ici concerne l'estimateurs et les tests utilises sur des modeles autoregressifs construits a partir de l'observation d'une serie temporelle. La serie traitee en elle-meme, independamment d'autres series avec lesquelles elle pourrait etre en relation. On a distingue trois parties essentielles : la premiere s'attache aux modeles autoregressifs du premier ordre. Les methodes d'estimation et les proprietes des estimateurs obtenues sont discutees. Deux hypotheses essentielles sont testees :. La premiere hypothese concerne le parametre autoregressif : processus stable avec b <1; processus explosif avec b >1; processus a cheminement aleatoire avec b = 1. . La seconde hypothese concerne le terme aleatoire et : les et independants ou non. La deuxieme partie s'attache aux modeles autoregressifs - moyennes mobiles (arma); les methodes d'estimation et les tests concernant l'adequation du modele identifie et estime sont analyses. La troisieme se compose enfin de deux applications pratiques : l'une porte sur le cours des actions industrielles aux etats-unis pendant ces douze dernieres annees, (de 1974 a 1985), ce processus qui est identifie comme un processus autoregressif du premier ordre suit un cheminement aleatoire. L'autre application concerne la production d'automobiles "voitures de tourisme" au japon pour la periode allant de janvier 1974 a juin 1986. Apres identification et tests le pro- cessus apparait comme un arma (2,16).
APA, Harvard, Vancouver, ISO, and other styles
3

Jeantheau, Thierry. "Modèles autorégressifs à erreur conditionnellement hétéroscédastique." Paris 7, 1993. http://www.theses.fr/1993PA077169.

Full text
Abstract:
Depuis l'article fondateur de Engle en 1982, les modèles dynamiques hétéro scédastiques ont connu des développements importants; le but de cette thèse est d'étudier les propriétés de ce type de modèles. Dans une première partie, on définit un modèle hétéro scedastique assez général, et on montre alors sous quelles conditions les estimateurs du minimum de contraste sont fortement consistants. Le théorème donné dans ce chapitre permet de faire des hypothèses très faibles sur l'existence de moments du processus solution. Dans la deuxième partie, ce résultat est applique à un modèle auto régressif à erreur Garch. Les conditions de stationnarité et d'identifiabilité du modèle sont étudiées en détail. On montre alors que tous les modèles stationnaires au sens strict peuvent être estimés de façon fortement consistante. Dans la troisième partie, on montre comment ces résultats peuvent être étendus au cadre multivarié. On prend alors comme exemple le modèle Garch multivarié à corrélation constante. Enfin, les quatrième et cinquième parties traitent des applications sur des données simulées (où les résultats obtenus confirment nos résultats théoriques) et sur des données financières réelles (principalement sur des cours de change)
APA, Harvard, Vancouver, ISO, and other styles
4

Lim, Néhémy. "Estimation de modèles autorégressifs vectoriels à noyaux à valeur opérateur : Application à l'inférence de réseaux." Thesis, Evry-Val d'Essonne, 2015. http://www.theses.fr/2015EVRY0007/document.

Full text
Abstract:
Dans l’analyse des séries temporelles multivariées, la plupart des modèles existants sont utilisés à des fins de prévision, c’est-à-dire pour estimer les valeurs futures du système étudié à partir d’un historique de valeurs observées dans le passé. Une autre tâche consiste à extraire des causalités entre les variables d’un système dynamique. C’est pour ce dernier problème à visée explicative que nous développons une série d’outils. À cette fin, nous définissons dans cette thèse une nouvelle famille de modèles autorégressifs vectoriels non paramétriques construits à partir de noyaux à valeur opérateur. En faisant l’hypothèse d’une structure sous-jacente creuse, la parcimonie du modèle est contrôlée en imposant dans la fonction de coût des contraintes de parcimonie aux paramètres du modèle (qui sont en l’occurrence des vecteurs qui pondèrent une combinaison linéaire de noyaux). Les noyaux étudiés possèdent parfois des hyperparamètres qui doivent être appris selon la nature du problème considéré. Lorsque des hypothèses de travail ou des connaissances expertes permettent de fixer les paramètres du noyau, le problème d’apprentissage se réduit à la seule estimation des paramètres du modèle. Pour optimiser la fonction de coût correspondante, nous développons un algorithme proximal. A contrario, lorsqu’aucune hypothèse relative aux variables n’est disponible, les paramètres de certains noyaux ne peuvent être fixés a priori. Il est alors nécessaire d’apprendre conjointement les paramètres du modèle et ceux du noyau. Pour cela, nous faisons appel à un schéma d’optimisation alterné qui met en jeu des méthodes proximales. Nous proposons ensuite d’extraire un estimateur de la matrice d’adjacence encodant le réseau causal sous-jacent en calculant une statistique des matrices jacobiennes instantanées. Dans le cas de la grande dimension, c’est-à-dire un nombre insuffisant de données par rapport au nombre de variables, nous mettons en oeuvre une approche d’ensemble qui partage des caractéristiques du boosting et des forêts aléatoires. Afin de démontrer l’efficacité de nos modèles, nous les appliquons à deux jeux de données : des données simulées à partir de réseaux de régulation génique et des données réelles sur le climat
In multivariate time series analysis, existing models are often used for forecasting, i.e. estimating future values of the observed system based on previously observed values. Another purpose is to find causal relationships among a set of state variables within a dynamical system. We focus on the latter and develop tools in order to address this problem. In this thesis, we define a new family of nonparametric vector autoregressive models based on operator-valued kernels. Assuming a sparse underlying structure, we control the model’s sparsity by defining a loss function that includes sparsity-inducing penalties on the model parameters (which are basis vectors within a linear combination of kernels). The selected kernels sometimes involve hyperparameters that may need to be learned depending on the nature of the problem. On the one hand, when expert knowledge or working assumptions allow presetting the parameters of the kernel, the learning problem boils down to estimating only the model parameters. To optimize the corresponding loss function, we develop a proximal algorithm. On the other hand, when no prior knowledge is available, some other kernels may exhibit unknown parameters. Consequently, this leads to the joint learning of the kernel parameters in addition to the model parameters. We thus resort to an alternate optimization scheme which involves proximal methods. Subsequently, we propose to build an estimate of the adjacency matrix coding for the underlying causal network by computing a function of the instantaneous Jacobian matrices. In a high-dimensional setting, i.e. insufficient amount of data compared to the number of variables, we design an ensemble methodology that shares features of boosting and random forests. In order to emphasize the performance of the developed models, we apply them on two tracks : simulated data from gene regulatory networks and real climate data
APA, Harvard, Vancouver, ISO, and other styles
5

Arkoun, Ouerdia. "Estimation non paramétrique pour les modèles autorégressifs." Phd thesis, Université de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00464024.

Full text
Abstract:
Cette thèse se consacre à l'estimation non paramétrique pour les modèles autorégressifs. Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles autorégressifs. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne. Pour un modèle autorégressif non paramétrique où la fonction autorégressive est supposée appartenir à une classe H\"{o}ldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction autorégressive est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes H\"{o}ldériennes.\\
APA, Harvard, Vancouver, ISO, and other styles
6

Zakoian, Jean-Michel. "Modèles autorégressifs à seuil de séries chronologiques." Paris 9, 1990. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1990PA090014.

Full text
Abstract:
Ce travail est fondé sur l'introduction de seuils dans les modèles de séries temporelles. Nous commençons par présenter la théorie des chaines de Markov homogènes, nécessaire pour l'étude des processus non linéaires. Les modèles autorégressifs d'ordre un à un seuil font l'objet de la deuxième partie. Des propriétés distributionnelles sont obtenues au voisinage du modèle linéaire, ce qui permet d'obtenir des formules approchées pour diverses quantités: moyenne, variance, moments. . . Enfin, deux méthodes de test de l'hypothèse de linéarité sont proposées. La partie suivante propose une nouvelle classe de modèles ARCH (autogressive conditionally heteroskedastic). L'introduction de seuils dans la spécification de la variance conditionnelle permet la prise en compte d'effets spécifiques sur la volatilité (persistance, dissymétrie selon le signe des erreurs antérieures. . . ). Une étude complète est proposée: stationnarité faible, stationnarité stricte, calcul des moments, analyse de l'effet leptokurtique, comparaison avec les modèles ARCH, estimation des divers paramètres, test de l'hypothèse d'homoscédasticité. Enfin, la dernière partie de la thèse traite du passage au temps continu de modèles hétéroscédastiques à seuil
APA, Harvard, Vancouver, ISO, and other styles
7

Chakar, Souhil. "Segmentation de processus avec un bruit autorégressif." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112196/document.

Full text
Abstract:
Nous proposons d’étudier la méthodologie de la segmentation de processus avec un bruit autorégressif sous ses aspects théoriques et pratiques. Par « segmentation » on entend ici l’inférence de points de rupture multiples correspondant à des changements abrupts dans la moyenne de la série temporelle. Le point de vue adopté est de considérer les paramètres de l’autorégression comme des paramètres de nuisance, à prendre en compte dans l’inférence dans la mesure où cela améliore la segmentation.D’un point de vue théorique, le but est de conserver un certain nombre de propriétés asymptotiques de l’estimation des points de rupture et des paramètres propres à chaque segment. D’un point de vue pratique, on se doit de prendre en compte les limitations algorithmiques liées à la détermination de la segmentation optimale. La méthode proposée, doublement contrainte, est basée sur l’utilisation de techniques d’estimation robuste permettant l’estimation préalable des paramètres de l’autorégression, puis la décorrélation du processus, permettant ainsi de s’approcher du problème de la segmentation dans le cas d’observations indépendantes. Cette méthode permet l’utilisation d’algorithmes efficaces. Elle est assise sur des résultats asymptotiques que nous avons démontrés. Elle permet de proposer des critères de sélection du nombre de ruptures adaptés et fondés. Une étude de simulations vient l’illustrer
We propose to study the methodology of autoregressive processes segmentation under both its theoretical and practical aspects. “Segmentation” means here inferring multiple change-points corresponding to mean shifts. We consider autoregression parameters as nuisance parameters, whose estimation is considered only for improving the segmentation.From a theoretical point of view, we aim to keep some asymptotic properties of change-points and other parameters estimators. From a practical point of view, we have to take into account the algorithmic constraints to get the optimal segmentation. To meet these requirements, we propose a method based on robust estimation techniques, which allows a preliminary estimation of the autoregression parameters and then the decorrelation of the process. The aim is to get our problem closer to the segmentation in the case of independent observations. This method allows us to use efficient algorithms. It is based on asymptotic results that we proved. It allows us to propose adapted and well-founded number of changes selection criteria. A simulation study illustrates the method
APA, Harvard, Vancouver, ISO, and other styles
8

Tong, Dinh Quy. "Méthodes d'estimation de paramètres de modèles autorégressifs multivariés." Grenoble 1, 1991. http://www.theses.fr/1991GRE10141.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes d'estimation pour un modèle autorégressif multivarié et spécialement à la construction d'algorithmes pour la mise en œuvre de la méthode du maximum de vraisemblance. On présente dans les deux premiers chapitres les différents notions et algorithmes utilisés dans le domaine de l'estimation autorégressive multivariée. On y étudie les aspects algorithmiques de la méthode de Yule-Walker, des méthodes de Burg généralisées, des méthodes basées sur les corrélations partielles. . . La méthode du maximum de vraisemblance est l'objet des trois derniers chapitres. On introduit les différentes façons de calculer la fonction de Log-vraisemblance, ses dérivées premières exactes (par rapport aux différents ensembles de paramètres caractérisant le modèle) et des approximations de ses dérivées secondes. A l'aide de la technique itérative de Newton-Raphson modifiée (méthode itérative de Fisher) on construit ensuite des algorithmes d'optimisation pour le problème d'estimation du maximum de vraisemblance. Les résultats de simulation et les aspects de l'implémentation de ces algorithmes sont également présentés
APA, Harvard, Vancouver, ISO, and other styles
9

Pedroso, Meloni Luis Geraldo. "Compression spectrale du signal vocal par modification du modèle autorégressif." Nancy 1, 1985. http://www.theses.fr/1985NAN10275.

Full text
Abstract:
Une technique pour améliorer la réception de la parole par les malentendants présentant des troubles auditifs neurosensoriels dans les hautes fréquences. Cette technique est basée sur la modélisation du conduit vocal par prédiction linéaire, suivie d'une modification convenable du filtre de synthèse. Les fréquences et les largeurs de bande des formants sont réduites de façon non-uniforme par le déplacement des pôles dans le plan complexe. La parole est synthétisée par le modèle modifié à partir du signal d'erreur. Le signal obtenu est soumis à un filtrage qui aligne les amplitudes des pics spectraux du modèle modifié, sur celles du modèle original. Il a été conçu et réalisé un système architecturé autour d'un processeur de traitement du signal, qui a permis l'étaude sur l'exécution de la méthode en temps réel. Des résultats obtenus sur quelques dizaines de mots traités montrent une bonne intelligibilité, ainsi qu'une bonne conservation des structures temporelles telles que les traits rythmiques, la durée des segments, le contour de la période fondamental
APA, Harvard, Vancouver, ISO, and other styles
10

Kachour, Maher. "Une nouvelle classe de modèles autorégressifs à valeurs entières." Rennes 1, 2009. https://tel.archives-ouvertes.fr/tel-00442146.

Full text
Abstract:
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles autorégressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d' autocorrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits
In many practical situations we deal with integer-valued time series. The analysis of such a time series present some difficulties, namely where the analysis is based on some stochastic models. These models must reflect the integer peculiarity of the observed series. Many attempts have been made to define some models which can be used to describe integer-valued time series. Most of the proposed models are based on the thinning operator and they have the same properties as the real-valued models well-known in the literature. The aim of this thesis is to study the integer-valued autoregressive models. We introduce a new class of models based on the rounding operator. Compared to the existent models, the new class has several advantages : simple innovation structure, autoregressive coefficients with arbitrary signs, possible negative values for time series and for the autocorrelation function. We study the stationarity of the models and the strong consistency of the least squares estimator proposed to estimate the parameters. We analyze some well-known time series with the introduced models
APA, Harvard, Vancouver, ISO, and other styles
11

Raïssi, Hamdi. "Contribution à l'inférence statistique des modèles vectoriels autorégressifs et à correction d'erreurs." Lille 3, 2007. http://www.theses.fr/2007LIL30039.

Full text
Abstract:
Dans cette thèse nous élargissons le champ d'application des modèles vectoriels autorégressifs (VAR) en considérant les erreurs non corrélées mais dépendantes. Plus précisément, en étudiant des problèmes d'estimation et de comportement d'outils statistiques, nous nous sommes intéressés à la validité dans notre cadre de résultats valables sous l'hypothèse d'iinovations iid gaussiennes. Nous montrons que le comportement asymptotique des estimateurs de paramètres de court terme et des autocorrélations résiduelles est différent du cas standard. Ainsi des tests portmanteau modifiés dont la distribution asymptotique est une somme pondérée de chi-deux sont proposés. Nous présentons un algorithme qui permet d'implémenter ces tests. Le comportement des estimateurs des paramètres de long terme et du test de rapport de vraisemblance pour le rang de cointégration est étudié. Il apparaît que les résultats standard concernant les relations de long terme s'étendent à notre cadre. Nous montrons aussi que le comportement asymptotique des estimateurs des paramètres d'ajustement est différent du cas iid gaussien. Des exemples théoriques qui justifient notre approche sont exhibés. Le comportement à distance finie de différents tests est étudié par des expériences de Monte Carlo
The goal of this thesis is to study the vector autoregressive models in the framework of uncorrelated but nonindependent errors. More precisely, by considering the behaviour of statistical tools and problems of estimation, we studied the validity in our framework of results which are available under the assumption of Gaussian iid innovations. We show that the asymptotic behaviour of the short run parameters and that of the residual autocorrelations are different from the standard case. Thus modified portmanteau tests whose asymptotic distribution is a sum of weighted chi-squares variables are proposed. We give an algorithm for the implementation of these tests. We study the behaviour of the estimator of the long run parameters and that of the likehood ratio test for the cointegrating rank. We find that the standard results for the long run relationships extend to our framework. We also show that the asymptotic behaviour of the estimators of the adjustment parameters are different from the iid gaussian case. We give theoretical examples which motivate our approach. The finite sample properties are studied by means of Monte Carlo experiments
APA, Harvard, Vancouver, ISO, and other styles
12

Khalil, Richard. "Expériences Monte Carlo dans les modèles d'hétéroscédasticité conditionnelle autorégressive, approche paramétrique et semi-paramétrique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ61350.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Elmi, Mohamed Abdillahi. "Détection des changements de points multiples et inférence du modèle autorégressif à seuil." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD005/document.

Full text
Abstract:
Cette thèse est composée de deux parties: une première partie traite le problème de changement de régime et une deuxième partie concerne le processusautorégressif à seuil dont les innovations ne sont pas indépendantes. Toutefois, ces deux domaines de la statistique et des probabilités se rejoignent dans la littérature et donc dans mon projet de recherche. Dans la première partie, nous étudions le problème de changements derégime. Il existe plusieurs méthodes pour la détection de ruptures mais les principales méthodes sont : la méthode de moindres carrés pénalisés (PLS)et la méthode de derivée filtrée (FD) introduit par Basseville et Nikirov. D’autres méthodes existent telles que la méthode Bayésienne de changementde points. Nous avons validé la nouvelle méthode de dérivée filtrée et taux de fausses découvertes (FDqV) sur des données réelles (des données du vent sur des éoliennes et des données du battement du coeur). Bien naturellement, nous avons donné une extension de la méthode FDqV sur le cas des variables aléatoires faiblement dépendantes.Dans la deuxième partie, nous étudions le modèle autorégressif à seuil (en anglais Threshold Autoregessive Model (TAR)). Le TAR est étudié dans la littérature par plusieurs auteurs tels que Tong(1983), Petrucelli(1984, 1986), Chan(1993). Les applications du modèle TAR sont nombreuses par exemple en économie, en biologie, l'environnement, etc. Jusqu'à présent, le modèle TAR étudié concerne le cas où les innovations sont indépendantes. Dans ce projet, nous avons étudié le cas où les innovations sont non corrélées. Nous avons établi les comportements asymptotiques des estimateurs du modèle. Ces résultats concernent la convergence presque sûre, la convergence en loi et la convergence uniforme des paramètres
This thesis has two parts: the first part deals the change points problem and the second concerns the weak threshold autoregressive model (TAR); the errors are not correlated.In the first part, we treat the change point analysis. In the litterature, it exists two popular methods: The Penalized Least Square (PLS) and the Filtered Derivative introduced by Basseville end Nikirov.We give a new method of filtered derivative and false discovery rate (FDqV) on real data (the wind turbines and heartbeats series). Also, we studied an extension of FDqV method on weakly dependent random variables.In the second part, we spotlight the weak threshold autoregressive (TAR) model. The TAR model is studied by many authors such that Tong(1983), Petrucelli(1984, 1986). there exist many applications, for example in economics, biological and many others. The weak TAR model treated is the case where the innovations are not correlated
APA, Harvard, Vancouver, ISO, and other styles
14

Khouas, Leila. "Visualisation de champs de vecteurs 2D et 3D par modélisation autorégressive bidimensionnelle d'une texture de type fourrure." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0081.

Full text
Abstract:
Dans de nombreux domaines tels que la mécanique des fluides ou l'imagerie cardiaque, les données manipulées consistent en des champs denses de vecteurs 2D ou 3D représentant par exemple une vitesse de déplacement. Le volume important que représentent ces données ainsi que leur complexité rendent leur visualisation particulièrement difficile. Leur interprétation et leur compréhension nécessite l'élaboration de techniques de visualisation efficaces. Dans ce cadre, nous proposons une nouvelle représentation de champs de vecteurs basée sur une texture de type fourrure. Nous considérons qu'une telle texture fournit une représentation naturelle d'un champ dense de vecteurs et par suite intuitive et facile à interpréter. Nous avons conçu une technique de synthèse 2D de ce type de texture qui produit des images d'aspect visuel satisfaisant. Cette technique est peu coûteuse en temps de calcul et permet de contrôler les principaux attributs de la texture (orientation et longueur des filaments). Pour cela, nous avons utilisé un modèle autorégressif 2D (AR 2D) dont les paramètres ont été identifiés à partir d'un ensemble d'images de texture 3D synthétisées par une modélisation en Hypertexture. Nous nous sommes ensuite intéressés à l'exploitation du procédé pour la représentation de champs denses de vecteurs. Différentes représentations de champs de vecteurs 2D sont testées en utilisant des données de simulation et des données réelles issues de 1 'imagerie cardiaque. De plus, pour pouvoir représenter des champs de vecteurs 3D définis sur des surfaces 3D, nous avons développé une procédure de plaquage de texture appropriée. Deux applications sont ensuite présentées. L'une en synthèse d'images, concerne la représentation de champs de vecteurs particuliers simulant une fourrure sur des objets 3D. La seconde application intéresse l'imagerie médicale et a pour but la visualisation du mouvement des parois cardiaques
In many areas such as fluid dynamics or medical imaging, the analysis of studied phenomena produces complex data that consists in large vector fields. The vectors represent some characteristic of each point on the field such as: a fluid vorticity, a wind velocity or a motion speed. The visualization of vector fields is not straightforward because they have no natural representation. In this work, we propose to build a new representation of vector fields based on furlike texture. We assume that such a texture provides a natural and intuitive representation of a dense vector field. Our approach consists in the development of a texture model that allows 2D synthesis of furlike texture having a 3D aspect. The model is based on the modeling of the texture autocorrelation function (ACF) and a two dimensional Auto Regressive synthesis (2D AR). This provides a simple and efficient 2D generator of furlike texture with a local control of the main attributes of the texture (orientation and length of filaments). We have experimented the use of this texture model to represent vector fields. We use orientation, length and color attributes of our furlike texture to visualize local orientation and magnitude of a 2D vector field. Results are presented using simulated data and cardiac imaging data. We also show how to visualize 3D vector fields defined over 3D surfaces by a simple and appropriate texture mapping procedure. We have applied this technique for special vector fields that simulate fur appearance on 3D objects. This produces images with quite realistic aspect
APA, Harvard, Vancouver, ISO, and other styles
15

Wu, Li. "Analyse et reconnaissance de la parole par modèles rétro-autorégressifs et réseaux neuronaux." Nancy 1, 1990. http://www.theses.fr/1990NAN10506.

Full text
Abstract:
L'objectif de ce travail est l'analyse des voyelles nasales du français. Elles sont au nombre de quatre comme dans lent, long, lin et l'un. Après une courte introduction positionnant le problème, le deuxième chapitre expose les modèles AR, MA et ARMA pour l'analyse de parole et propose un algorithme de ARMA sélectif pour s'adapter à la difficulté de reconnaissance des voyelles nasales. Le troisième chapitre décrit une méthode de détection et de suivi de formants. Le quatrième chapitre est une étude des caractéristiques des voyelles nasales du français, ainsi que leur reconnaissance en utilisant notre modèle. Les erreurs de reconnaissance sont analysées et interprétées. Le dernier chapitre donne et compare les résultats de reconnaissance obtenus par programmation dynamique et par un réseau neuronal
APA, Harvard, Vancouver, ISO, and other styles
16

Ailliot, Pierre. "Modèles autorégressifs à changements de régimes markoviens. Applications aux séries temporelles de vent." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00007602.

Full text
Abstract:
Dans cette thèse, plusieurs modèles originaux, utilisant les modèles autorégressifs à changements de régimes markoviens, sont proposés pour les séries temporelles de vent. L'étude théorique de ces modèles fait l'objet du premier chapitre. Nous abordons en particulier les problèmes du calcul numérique des estimateurs du maximum de vraisemblance, de l'étude de leurs comportements asymptotiques ainsi que celui de la validation de modèle. Dans le deuxième chapitre, nous proposons divers modèles autorégressifs à changements de régimes markoviens permettant de décrire l'évolution du vent en un point fixé, puis dans le troisième chapitre son évolution spatio-temporelle. Pour chacun des modèles proposés, nous vérifions l'interprétabilité météorologique des différents paramètres et leur capacité à simuler des nouvelles séquences artificielles réalistes. Ces résultats sont comparés avec ceux correspondant aux modèles usuellement utilisés dans la littérature.
APA, Harvard, Vancouver, ISO, and other styles
17

Ngatchou, Wandji Joseph. "Etude de tests paramétriques et non-paramétriques asymptotiquement puissants pour les modèles autorégressifs bilinéaires." Paris 13, 1995. http://www.theses.fr/1995PA132009.

Full text
Abstract:
Le test du multiplicateur de Lagrange apparait comme un bon outil pour tester les modèles bilinéaires diagonaux d'ordre un. Nous l'utilisons pour discriminer entre modèles autorégressifs linéaires d'ordre un, et certains modèles bilinéaires sous-diagonaux d'ordre deux, pour lesquels nous donnons une condition nécessaire et suffisante d'inversibilité. Nous prouvons la contigüité de l'hypothèse nulle et d'une suite d'alternatives locales, ce qui nous permet, grâce au troisième lemme de le Cam, d'obtenir une expression explicite de la puissance théorique locale du test. Des simulations numériques de Monte Carlo montrent que cette puissance est bien estimée par la puissance expérimentale. Nous constatons d'autre part que ce test s'avère bon pour tester les types d'hypothèses considérées. Les tests paramétriques comme celui du multiplicateur de Lagrange, du fait qu'ils sont construits pour des modèles paramétriques spécifiques, peuvent manquer de robustesse ; d'ou l'intérêt des tests non-paramétriques. Les tests non-paramétriques pour tester la linéarité des modèles autorégressifs sont peu nombreux. Pour préparer des extensions à des modèles autorégressifs plus généraux, nous construisons sur un compact de l'ensemble des réels, deux tests non-paramétriques pour tester les modèles bilinéaires diagonaux d'ordre un, stationnaires, géométriquement alpha-mélangeant, et ayant des bruits a loi de densité fixée, inconnue et bornée. L'étude de la loi asymptotique des statistiques de test, sous l'hypothèse nulle, se fait au moyen de principes d'invariance faibles. Pour chacun de ces tests, en utilisant des inégalités maximales, nous exhibons un minorant de la puissance qui converge vers 1. Nous montrons que sous des alternatives locales, le risque de l'erreur de deuxième espèce peut être très proche de un. Lorsque le bruit est gaussien, des essais confirment ces résultats, et prouvent en même temps que sur l'exemple du modèle bilinéaire diagonal d'ordre un, le test du multiplicateur de Lagrange est meilleur que les deux tests non-paramétriques
APA, Harvard, Vancouver, ISO, and other styles
18

Florin, Charles. "Segmentation à partir de modèles probabilistes spatio-temporels à information clairsemée : contributions et applications." Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0707.

Full text
Abstract:
Cette étude présente comment une quantité limité d'information dans l'image peut être utilisée à des fins de segmentation et de suivi de l'objet. Cette information clairsemée est sélectionnée à partir d'un ensemble d'apprentissage en fonction de différents critères , puis le résultat final est reconstruit à partir de ces éléments clairsemés. Le premier critère prend en compte le lien entre l'information locale contenue dans l'image et le résultat recherché, de sorte à ce que seules les régions les plus significatives ne soient gardées. Le second critère rend compte de la qualité de reconstruction. Ce concept est appliqué au problème de segmentation dans une image volumétrique, puis au cas de suivi d'objet. Dans le deuxième problème, un modèle orédictif prévoit la position et la forme de l'objet future; ce modèle est mis-à-jour grâce à une optimisation incrémentale de ses paramètres. Enfin, le dernier problème est celui de segmentation de structures tubulaires, résolu grâce à une méthode Bayesienne séquentielle appelée filtrage particulaire.
APA, Harvard, Vancouver, ISO, and other styles
19

Ailliot, Pierre. "Modèles autorégressifs à changements de régimes markoviens. Applications aux séries tempo-relles de vent." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00007602.

Full text
Abstract:
Dans cette thèse, plusieurs modèles originaux, utilisant les modèles autorégressifs à change-ments de régimes markoviens, sont proposés pour les séries temporelles de vent. L'étude théorique de ces modèles fait l'objet du premier chapitre. Nous abordons en particulier les problèmes du calcul numérique des estimateurs du maximum de vraisemblance, de l'étude de leurs comportements asymptotiques ainsi que celui de la validation de modèle. Dans le deuxième chapitre, nous proposons divers modèles autorégressifs à changements de régimes markoviens permettant de décrire l'évolution du vent en un point fixé, puis dans le troisième chapitre son évolution spatio-temporelle. Pour chacun des modèles proposés, nous vérifions l'interprétabilité météorologique des différents paramètres et leur capacité à simuler des nouvelles séquences artificielles réalistes. Ces résultats sont comparés avec ceux corre-spondant aux modèles usuellement utilisés dans la littérature.
APA, Harvard, Vancouver, ISO, and other styles
20

Claude, Isabelle. "Caractérisation et segmentation de textures sur la base de modèles autorégressifs à support spatial adapté." Troyes, 1997. http://www.theses.fr/1997TROY0001.

Full text
Abstract:
Ces travaux concernent l'utilisation de la modélisation autorégressive bidimensionnelle en analyse de textures. Dans un premier temps, nous nous sommes attachés à déterminer automatiquement le support spatial du modèle AR de manière à ce qu'il soit adapté à la texture étudiée. Nous proposons 3 techniques différentes d'identification de ce support, fondées sur des mesures de corrélation et corrélation partielle, estimées sur un large voisinage. La sélection des éléments du support peut être réalisée en utilisant les critères d'information de Schwarz ou Akaike. L'évaluation des modèles adaptés obtenus montre qu'ils améliorent conjointement la représentation de la texture et leur pouvoir discriminant. Dans un second temps, nosu avons utilisé ces modèles adaptés dans un algorithme original de segmentation d'images texturées. Le déroulement de cet algorithme s'inspire du schéma simplifié de la vision humaine : une étape d'initialisation rapide permet de déterminer grossièrement les différentes régions texturées, puis une étape itérative concentrée sur les zones de frontières permet de localiser plus précisément les contours des différentes régions. L'image est structurée en arbre quaternaire et chauqe bloc est classé selon un critère original prenant en compte, à la fois le contexte lié à la texture, par le biais de la modélisation autorégressive, et à la fois, le contexte lié à la connexité des blocs dans l'image. Enfin, nous proposons un module indépendant d'estimation du nombre et du type de textures présentés dans l'image originale qui, utilisé avec l'algorithme de segmentation, permet d'obtenir une méthode de segmentation non supervisée d'images de textures. Des résultats sur des mosaïques de textures de l'album de Brodatz sont données comparativement à 4 autres méthodes de segmentation tirées de la littérature, et permettent de mieux situer notre approche dans le domaine vaste de l'analyse de textures
APA, Harvard, Vancouver, ISO, and other styles
21

Ezzahar, Abdessamad. "Estimation et détection d'un signal contaminé par un bruit autorégressif." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339831.

Full text
Abstract:
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
APA, Harvard, Vancouver, ISO, and other styles
22

Diab, M. O. "Classification des signaux EMG utérins afin de détecter les accouchements prématurés." Phd thesis, Université de Technologie de Compiègne, 2007. http://tel.archives-ouvertes.fr/tel-00410409.

Full text
Abstract:
L'accouchement prématuré reste la principale cause de mortalité et de morbidité néonatales. Le signal EMG utérin semble un vecteur potentiel d'indication du risque d'accouchement prématuré.
Dans la suite des travaux réalisés pour la détection, le traitement et la classification des événements dans le signal EMG Utérin, notre travail s'est orienté vers la classification des contractions à partir des signaux EMG utérins, afin de séparer les deux types d'accouchement : accouchement prématuré et accouchement à terme.
Les contractions utérines ont été manuellement segmentées à partir du signal EMG utérin. Puis chaque contraction est modélisée et des paramètres sont extraits avant de faire la classification. Cette modélisation est faite par ondelettes et par analyse de la densité spectrale de puissance de chaque contraction.
La classification est ensuite réalisée en utilisant 2 types de méthodes : tout d'abord une classification non supervisée, qui regroupe les contractions sans connaissance a priori des classes, permettant ensuite une interprétation des groupes en fonction des semaines d'aménorrhées et du terme d'accouchement. Dans ce contexte nous avons développé une méthode originale de classification non supervisée basée sur le test de Fisher combiné avec la méthode de k-moyenne (USCM, Unsupervised Statistical Classification Method).
L'autre type de classification est supervisée. Après avoir sélectionné d'une façon précise les femmes qui peuvent être utilisées pour l'apprentissage de notre méthode de classification, nous avons utilisé différentes méthodes supervisées de classification. Tout d'abord, nous avons testé des méthodes classiques (Réseaux de neurones, Parzen,...). Puis une méthode originale basée sur le réseau d'ondelettes a été développée pour cette classification, cette méthode ayant été précédemment utilisée pour la régression mais jamais pour la classification.
Nous avons été confrontés à un problème lié au faible nombre de d'éléments pour l'apprentissage. Nous avons donc aussi utilisé une méthode basée sur la modélisation autorégressive pour augmenter l'ensemble d'apprentissage.
En ce qui concerne les applications, et pour la séparation entre les signaux d'EMG (application clinique), nous avons utilisé deux approches. Dans la première approche, nous avons utilisé des contractions ayant le même nombre de SAR (Semaines d'Aménorrhée à l'Enregistrement) mais des SAA (semaines d'Aménorrhée à l'accouchement) différent (petite différence et grande différence). La deuxième approche est de classifier les événements acquis avec différentes (SAR) pour des femmes ayant le même SAA.
D'après les résultats obtenus, nous avons pu conclure que nous pouvons distinguer le terme d'accouchement des femmes enregistrés aux mêmes termes de grossesse. Et nous avons pu également conclure que les contractions changent de caractéristiques en fonction du terme de grossesse. D'un point de vue clinique, le résultat important est que, pour un terme de grossesse donné à l'enregistrement, il est possible de distinguer une contraction normale et une contraction conduisant à un accouchement prématuré.
APA, Harvard, Vancouver, ISO, and other styles
23

Rabemananjara, Théophile. "Modèles vectoriels autorégressifs (V. A. R. ) et modélisation des systèmes dynamiques : application à l'étude de la bouche prix-salaires." Paris, EHESS, 1989. http://www.theses.fr/1989EHES0018.

Full text
Abstract:
On considere un modele vectoriel autoregressif (v. A. R. ) comme un cadre general dans lequel on analyse les liaisons dynamiques entre un systeme de variables macroeconomiques. On commence par tester et mesurer dans un modele v. A. R. La notion de causalite au sens de granger entre deux variables et on introduit des extensions de cette notion au cas d'un systeme de plus de deux variables: causalite directe, indirecte et globale. On propose des procedures de test de ces notions. Un modele v. A. R. Est ensuite considere comme un cadre dans lequel on peut tester les differentes hypotheses contenues dans un modele structurel : predetermination et exogeneite d'une partie des variables, suridentification faible et forte d'un modele structurel. On propose une procedure de test sequentiel de ces hypotheses fondee sur les moindres carres asymptotiques. On adopte egalement une approche bayesienne afin d'introduire des informations a priori de nature empirique sur les coefficients d'un modele v. A. R. Et on utilise le filtre de kalman pour l'estimer. Les procedures de test et d'estimation proposees sont appliquees a l'etude du processus inflationniste par la boucle prix-salaires en france et on compare les performances en prevision des differents modeles estimes
A vector autoregressive (v. A. R. ) model is considered as a general framework in which the interactions between the variables of a dynamic system can be analysed. We first use tests and measures of granger's causality between two variables and we propose extensions of this notion to the case of a system containing more than two variables and testing procedures of these new notions. Then we considere a v. A. R. As a framework in which the asumptions contained in a structural model can be tested: predeterminedness and exogeneity of a subset of variables, weak and strong over identification. A testing procedure based on asymptotic least squares is proposed. We also adopt a bayesian approach in order to take into account some empirical informations about the parameters of a v. A. R. Model and we use kalman filter to estimate the model. The testing and estimating procedures proposed are applied to the analysis of the wage price spiral in france and we compare the forecasting accuracy of the various models we estimate
APA, Harvard, Vancouver, ISO, and other styles
24

Mhidra, Hamid. "Moments discrets 2-D et modeles autorégressifs : application à la modélisation et à la reconnaissance des textures." Poitiers, 1991. http://www.theses.fr/1991POIT2404.

Full text
Abstract:
Dans l'analyse d'images, le traitement des informations de texture liée a l'état de la surface d'une zone pose encore beaucoup de problèmes. La représentation par modèle autorégressif (modèle ar) qui permet d'aborder les principaux traitements applicables aux textures (synthèse, classification et segmentation) a déjà fait l'objet de nombreux travaux. Cette thèse présente une nouvelle méthode de reconnaissance et de classification des textures basée sur leur caractérisation par des moments discrets bidimensionnels des réponses impulsionnelles de leurs modèles ar représentatifs. Ces modèles sont définis sur un domaine quart de plan et leur identification fait appel au calcul des corrélations. Leur utilisation en synthèse donne des résultats assez satisfaisants dans le cas des textures aléatoires. Les résultats sont moins bons pour les textures déterministes; l'instabilité des modèles détermines sur ces structures (qui se traduit par des oscillations au niveau de leurs réponses impulsionnelles) en est probablement la cause principale. Ces expériences permettent cependant de valider l'utilisation de tels modèles dans la procédure de reconnaissance proposée. L'application de celle-ci a permis de reconnaitre correctement une serie de 12 textures: 6 textures aléatoires et 6 déterministes
APA, Harvard, Vancouver, ISO, and other styles
25

El, Husseini Ali. "Estimation de canal radio à évanouissement plat par filtre de Kalman à modèle autorégressif : application aux canaux véhiculaires et à relais mobiles." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I008/document.

Full text
Abstract:
L’estimation de canal est une tâche cruciale du récepteur radio dans les systèmes de communication sans fil, en particulier en cas de mobilité où les paramètres du canal varient avec le temps en raison de l’effet Doppler. Dans cette thèse, nous considérons des variations de canal lentes à modérées, typiques des applications véhiculaires, et en particulier les deux types de canaux suivant : canaux Fixe-Mobiles (F-M) et canaux Mobiles-Mobiles (M-M), avec dans ce dernier cas la présence éventuelle de relais mobiles permettant d’amplifier et re-émettre le signal (Amplify and Forward). Nous avons démarré notre étude avec le canal F-M, qui servira de base pour traiter le canal M-M.Pour le cas d’un canal F-M, modélisé par le modèle de Rayleigh à spectre de Jakes, une approche courante pour estimer le canal consiste à utiliser un filtre de Kalman (KF) basé sur un modèle autorégressif d'ordre p (AR(p)). La méthode conventionnelle pour régler les paramètres du modèle AR(p) est basée sur le critère de corrélation (CM). Cependant, l’inconvénient majeur de cette méthode est que des ordres très élevés (p > 15) sont nécessaires pour approcher la borne de Cramer-Rao Bayésienne. Le choix de p ainsi que le réglage des paramètres du modèle sont donc critiques et un compromis doit être trouvé entre la complexité numérique et la performance. Le compromis raisonnable qui a suscité beaucoup d’attention est de prendre p = 2. Le CM n’étant pas performant pour p = 2, d’autres méthodes de réglage ont été proposées dans la littérature, mais celle-ci reposent principalement sur des résultats expérimentaux ou des recherches exhaustives, ce qui limite leur application. Pour régler le modèle, nous proposons d'utiliser un critère de minimisation de la variance asymptotique (MAV) de l’erreur d’estimation en sortie du filtre de Kalman. Une formule générale de réglage a été dérivée en fonction de l’état du canal (fréquence Doppler et rapport signal sur bruit), qui peut s’avérer très utile en pratique. De plus, nous avons également dérivé une formule analytique pour l'erreur quadratique moyenne, ce qui permet de mieux comprendre le comportement du KF. Ensuite, nous avons traité le canal M-M avec présence éventuelle de relais, en suivant la même approche. Les expressions analytiques pour le réglage optimal des paramètres du modèle AR(2) et les performances en erreur quadratique moyenne ont d'abord été établies en fonction des deuxièmes et quatrièmes moments du spectre Doppler du canal global. Les formules analytiques de ces moments ont été dérivées en exploitant la propriété de convolution des fonctions de densité, après décomposition du canal global en cascade de canaux élémentaires à spectre de Jakes. Avec ces approches, les résultats de simulations pour les différents canaux montrent un gain considérable en terme d’erreur quadratique moyenne d’estimation, comparé à la littérature
Channel estimation is a crucial task of the radio receiver in wireless communication systems, especially in the case of mobility where the channel parameters vary over time due to the Doppler effect. In this thesis, we consider slow to moderate channel variations, typical of vehicular applications, and in particular the following two types of channels: fixed-mobile (F-M) channels and mobile-mobile (M-M) channels, with in the latter case the possible presence of mobile relays (Amplify and Forward). We started our study with the F-M channel, which will serve as a basis for investigating the M-M channel.For the case of an F-M channel, modeled by Rayleigh model described by the Jakes spectrum, a common approach to estimating the channel is to use a Kalman filter (KF) based on an autoregressive model of order p (AR(p)). The conventional method for setting AR(p) model parameters is based on the correlation matching criterion (CM). However, the major disadvantage of this method is that very high orders p>15) are needed to approach the Bayesian Cramer-Rao Bound. The choice of p as well as the adjustment of the parameters of the model are therefore critical and a compromise must be found between the numerical complexity and the performance. The reasonable compromise that has attracted a lot of attention is to take p = 2. Since the CM is not efficient for p = 2, other methods of tuning have been proposed in the literature, but these are mainly based on experimental results or exhaustive searches, which limits their application.To adjust the model, we propose to use a criterion of minimization of the asymptotic variance (MAV) of the estimation error at the output of the Kalman filter. A general tuning formula has been derived based on the state of the channel (Doppler frequency and signal-to-noise ratio), which can be very useful in practice. In addition, we also derived an analytic formula for the mean squared error, which allows a better understanding of KF behavior.Then we treated the M-M channel with the possible presence of mobile relays, following the same approach. The analytical expressions for the optimal adjustment of the AR(2) model parameters and the mean squared error performance were first set according to the second and fourth moments of the Doppler spectrum of the global channel. The analytical formulas of these moments were derived by exploiting the convolution property of the density functions, after decomposing the cascading global channel channel of Jakes spectrum elementary channels. With these approaches, the results of simulations for the different channels show a considerable gain in terms of mean squared error performance estimation, compared to the literature
APA, Harvard, Vancouver, ISO, and other styles
26

Florin, Charles-Henri. "Segmentation à partir de modèles probabilistes spatiotemporels à information clairsemées - Contributions et applications." Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002995.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Malgras, Jacques. "Applications, à des données de la biologie des populations et de l'écologie, de méthodes d'analyse des séries temporelles." Lyon 1, 1996. http://www.theses.fr/1996LYO10240.

Full text
Abstract:
En biologie des populations et en ecologie, les donnees sont souvent des sequences d'observations ordonnees dans le temps, donc correlees entre elles. L'analyse de ces series requiert des methodes specifiques relevant de la theorie des processus stochastiques dans les domaines des temps et des frequences. Ces methodes sont introduites, illustrees sur des jeux de donnees reelles, puis leur interet en biologie des populations est mis en evidence.
APA, Harvard, Vancouver, ISO, and other styles
28

Diab, Mohamad. "Classification des signaux EMG utérins afin de détecter les accouchements prématurés." Compiègne, 2007. http://www.theses.fr/2007COMP1726.

Full text
Abstract:
L'accouchement prématuré reste la principale cause de mortalité et de morbidité néonatales. Le signal EMG utérin semble un vecteur potentiel d’indication du risque d'accouchement prématuré. Dans la suite des travaux réalisés pour la détection, le traitement et la classification des événements dans le signal EMG Utérin, notre travail s'est orienté vers la classification des contractions à partir des signaux EMG utérins, afin de séparer les deux types d'accouchement : accouchement prématuré et accouchement à terme. Les contractions utérines ont été manuellement segmentées à partir du signal EMG utérin. Puis chaque contraction est modélisée et des paramètres sont extraits avant de faire la classification. Cette modélisation est faite par ondelettes et par analyse de la densité spectrale de puissance de chaque contraction. La classification est ensuite réalisée en utilisant 2 types de méthodes : tout d'abord une classification non supervisée, qui regroupe les contractions sans connaissance a priori des classes, permettant ensuite une interprétation des groupes en fonction des semaines d'aménorrhées et du terme d'accouchement. Dans ce contexte nous avons développé une méthode originale de classification non supervisée basée sur le test de Fisher combiné avec la méthode de k-moyenne (USCM, Unsupervised Statistical Classification Method). L'autre type de classification est supervisée. Après avoir sélectionné d'une façon précise les femmes qui peuvent être utilisées pour l'apprentissage de notre méthode de classification, nous avons utilisé différentes méthodes supervisées de classification. Tout d'abord, nous avons testé des méthodes classiques (Réseaux de neurones, Parzen,. . . ). Puis une méthode originale basée sur le réseau d'ondelettes a été développée pour cette classification, cette méthode ayant été précédemment utilisée pour la régression mais jamais pour la classification. Nous avons été confrontés à un problème lié au faible nombre de d'éléments pour l'apprentissage. Nous avons donc aussi utilisé une méthode basée sur la modélisation autorégressive pour augmenter l'ensemble d'apprentissage. En ce qui concerne les applications, et pour la séparation entre les signaux d'EMG (application clinique), nous avons utilisé deux approches. Dans la première approche, nous avons utilisé des contractions ayant le même nombre de SAR (Semaines d'Aménorrhée à l'Enregistrement) mais des SAA (semaines d'Aménorrhée à l'accouchement) différent (petite différence et grande différence). La deuxième approche est de classifier les événements acquis avec différentes (SAR) pour des femmes ayant le même SAA. D'après les résultats obtenus, nous avons pu conclure que nous pouvons distinguer le terme d'accouchement des femmes enregistrés aux mêmes termes de grossesse. Et nous avons pu également conclure que les contractions changent de caractéristiques en fonction du terme de grossesse. D'un point de vue clinique, le résultat important est que, pour un terme de grossesse donné à l'enregistrement, il est possible de distinguer une contraction normale et une contraction conduisant à un accouchement prématuré
Premature birth remains the main cause of neonatal mortality and morbidity. Uterine EMG signal seems a potential vector for the indication of the risk of premature birth. In the continuation of the work completed for detection, the treatment and the classification of the events in Uterine EMG signal, our work was dedicated to the classification of the EMG contractions, in order to part the two types of labor: premature deliveries and deliveries at term. The uterine contractions were manually segmented from the uterine EMG signals. Then each contraction is modeled and the parameters are extracted before making the classification. This modeling is made by wavelet and the analysis of the power spectral density of each contraction. Classification is then carried out by using 2 types of methods: first a non-supervised classification method, which is used to group the contractions with no a priori knowledge of the classes, and then permits to make an interpretation of the groups according to the weeks of gestation and term of delivery. In this context we have developed an original method of non supervised classification based on the Fisher test combined with the K-mean method (USCM, Unsupervised Statistical Classification Method). The other type of used classification is supervised. After having selected in a precise way the women who can be used for the training of our method of classification, we used various supervised methods of classification. First, we used traditional methods (neural Networks, Parzen. . . ). Then an original method based on the Wavelet network has been developed for this classification. This method had been previously used for the regression but never for classification. We were faced with the low number of the set of training. We thus also developped a method based on autoregressive model (AR Model) to increase the training set. Concerning the applications, and for separation between the EMG signals (clinical application), we used two approaches. In the first approach, we used contractions having the same RWG (Registration Week of Gestation) but different BWG (Birth Week of Gestation), by testing small and large differences. The second approach is to classify the events acquired with different RWG for women having the same BWG. According to the results obtained, we can conclude that we can distinguish different delivery terms from recordings obtained from women having the same term of pregnancy. We can also conclude that the contractions change their characteristics according to the term of pregnancy. In a clinical point of view, the important result is that we could distinguish, for a given recording term, normal contraction to contractions leading to the premature delivery
APA, Harvard, Vancouver, ISO, and other styles
29

ILLIG, Aude. "Etude asymptotique de certains estimateurs dans des modèles ARMA spatiaux." Phd thesis, INSA de Toulouse, 2004. http://tel.archives-ouvertes.fr/tel-00007866.

Full text
Abstract:
Nous nous intéressons à l'étude asymptotique de certaines statistiques dans des modèles ARMA spatiaux quadrantaux
dont les innovations sont supposées être indépendantes et identiquement distribuées ou plus généralement vérifier une propriété de martingales fortes. Après une revue des théorèmes limites pour des martingales spatiales sur un réseau, nous démontrons d'abord un théorème de la limite centrale et un principe d'invariance sous la condition de Lindeberg conditionnelle pour des tableaux de martingales fortes. Afin de mieux situer notre étude des champs ARMA quadrantaux, nous rappelons divers résultats conçernant l'estimation et l'identification dans d'autres modèles ARMA spatiaux. Puis, dans le but de sélectionner les ordres et d'estimer les paramètres autorégressifs de modèles ARMA spatiaux quadrantaux, nous introduisons un nouvel estimateur obtenu à partir des équations de Yule-Walker généralisées. Nous démontrons sa consistance et sa normalité asymptotique. Enfin, pour un certain nombre de modèles ARMA spatiaux, nous illustrons leurs comportements par des représentations graphiques et nous
présentons une étude de procédures pour les identifier à partir de nombreuses simulations.
APA, Harvard, Vancouver, ISO, and other styles
30

El, Haffar Moustafa. "Contribution à l'étude de couplages électromagnétiques sur des systèmes en Chambre Réverbérante à Brassage de Modes." Limoges, 2009. http://www.theses.fr/2009LIMO4019.

Full text
Abstract:
Durant les dernières années, nous avons assisté à l'étude et à une utilisation accrue des chambres réverbérantes à brassage de modes dans le domaine de la compatibilité électromagnétique. L'utilisation de ces chambres est désormais utilisée pour la certification dans les domaines d'application que sont l'avionique et l'automobile grâce à la définition de normes civiles et militaires. Le travail présenté dans ce mémoire propose une étude théorique et expérimentale de la chambre réverbérante d'XLIM. La première partie de ce mémoire présente l'étalonnage de la chambre d'XLIM par la norme civile 61000-4-21 et la norme militaire DO-160. La deuxième partie est consacrée à une modélisation de la chambre d'XLIM par la méthode numérique FDTD. La troisième partie présente les différentes applications expérimentales réalisées dans la CRBM d'XLIM comme le test en immunité (capteur de pluie), le test en émission (ordinateur portable) et le test d'efficacité de blindage (caisson). Enfin, dans la dernière partie, une analyse de l'efficacité du brasseur de modes aux basses et aux hautes fréquences est effectuée
During last years, the steering mode reverberating chambers have been more and more used in the field of electromagnetic compatibility. The use of these chambers is consequently employed for the certification in the domains of application which are the aircrafts and the car thanks to the definition of civil and military norms. Work presented in this thesis dedicated to an experimental and theoretical study of the reververation chamber of the XLIM laboratory. The first part of this thesis introduces the calibration of the room of XLIM by civil norm 61000-4-21 and military norm DO-160. The second part is dedicated to a modeling of the room by numerical method FDTD. The third part introduces the different experimental applications accomplished in the CRBM of XLIM as the test in immunity (sensor of rain), the test in emission mode (laptop computer) and the shielding effectiveness measurement of metallic boxes. Finally, in the las part, an analysis of the effectiveness of the mode steerer in the low and in high frequency ranges is performed
APA, Harvard, Vancouver, ISO, and other styles
31

El, Matouat Abdelaziz. "Sélection du nombre de paramètres d'un modèle comparaison avec le critère d'Akaike." Rouen, 1987. http://www.theses.fr/1987ROUES054.

Full text
Abstract:
Dans ce travail, nous considérons une structure statistique (Oméga, A, f(thêta) sur laquelle nous disposons de n observations, et nous étudions, dans un premier temps, le critère d'Akaike pour une structure gaussienne. Ce critère permet lorsque l'échantillon est de taille n de définir un ordre k optimal plus petit que m, nombre de paramètres du modèle correct. L'ordre k, fonction de n, doit être suffisamment petit afin de faire apparaître une redondance statistique lors de l'estimation des k paramètres. Ensuite, pour tout thêta de I ensemble quelconque d'indices, soit f(thêta) une densité de Probabilité par rapport à une probabilité mu représentant la connaissance a priori. Les probabilités sont définies sur une tribu A provenant d'une partition finie M de oméga. Nous sommes alors amenés à modifier la fonction de perte en utilisant la distance de Hellinger. Le critère original présenté permet de définir la densité estimée. Comme des densités de probabilité interviennent, leur estimation est améliorée en utilisant la méthode du noyau ce qui conduit à une seconde modification du critère d'Akaike. Les résultats antérieurs sont appliqués à la déterminantion des paramètres p, q d'un modèle ARMA. Au préalable, l'utilisation du modèle interne fournit l'estimateur du maximum de vraisemblance pour les coefficients du modèle ARMA lorsque les paramètres p, q sont connus.
APA, Harvard, Vancouver, ISO, and other styles
32

Illig, Aude. "Etude asymptotique de certains estimateurs pour des modèles ARMA spatiaux." Toulouse, INSA, 2004. http://www.theses.fr/2004ISAT0027.

Full text
Abstract:
Nous nous intéressons à l'étude asymptotique de certaines statistiques dans des modèles ARMA spatiaux quadrantaux dont les innovations sont supposées être indépendantes et identiquement distribuées ou plus généralement vérifier une propriété de martingales fortes. Après une revue des théorèmes limites pour des martingales spatiales sur un réseau, nous démontrons d'abord un théorème de la limite centrale et un principe d'invariance sous la condition de Lindeberg conditionnelle pour des tableaux de martingales fortes. Afin de mieux situer notre étude des champs ARMA quadrantaux, nous rappelons divers résultats conçernant l'estimation et l'identification dans d'autres modèles ARMA spatiaux. Puis, dans le but de sélectionner les ordres et d'estimer les paramètresautorégressifs de modèles ARMA spatiaux quadrantaux, nous introduisons un nouvel estimateur obtenu à partir des équations de Yule-Walker généralisées. Nous démontrons sa consistance et sa normalité asymptotique. Enfin, pour un certain nombre de modèles ARMA spatiaux, nous illustrons leurs comportements par des représentations graphiques et nous présentons une étude de procédures pour les identifier à partir de nombreuses simulations
We study the asymptotic behaviour of some statistics for spatial quadrantal ARMA models with independent and identically distributed innovations or more generally strong martingales innovations. After giving a review of limit theorems for lattice martingales, we establish a central limit theorem and an invariance principle under the conditional Lindeberg condition for strong latticemartingales. For a better understanding of our study on quadrantal ARMA random fields, we recall various results on estimation and identification for others spatial ARMA models. Then, in order to select orders and estimate autoregressive coefficients in spatial quadrantal ARMA models, we introduce a new estimator based on a derivation of extended Yule-Walker equations and prove that it is consistent and asymptotically normal. Finally, we illustrate with graphic representations the behaviour of several spatial ARMA models and present a study of procedures for their identification
APA, Harvard, Vancouver, ISO, and other styles
33

Úriz-Jáuregui, Fermín. "Mise en place d'une méthodologie pour l'identification de modèles d'extrapolation de température : application aux équipements de nacelles de turboréacteurs." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0381/document.

Full text
Abstract:
Airbus réalise pour chaque avion et pour chaque équipement de nombreux essais, au sol ou en vol et doit garantir qu'en tout point de vol possible, la température de chacun des équipements reste inférieure à la température limite correspondante. Pour pouvoir valider la température de chaque équipement dans l'enveloppe de vol, il faudrait disposer d'essais réalisés aux frontières. Or, tous les essais en vol sont confrontés aux contraintes climatiques et opérationnelles qui ne permettent pas d'explorer tout le domaine. C'est pourquoi Airbus a besoin d'élaborer des méthodes d'extrapolation de température, de manière à prédire le comportement thermique des matériaux et des équipements dans les pires conditions. Les techniques proposées sont basées sur la théorie de l'identification de systèmes qui consiste à déterminer des modèles de comportement d'un point de vue heuristique à partir de mesures et considérations physiques. Plus précisément, le présent document valide les modèles ARX comme un outil pour l'identification de la température du système. Les modèles et les techniques sont étudiés, tout d'abord, d'un point de vue de la simulation numérique et après, confrontés face à des tests représentatifs au laboratoire. Les techniques proposées permettent prédire la température des composants avion pour des conditions différentes
Airbus must ensure that for all flight conditions that a given aircraft could face, the temperature of each powerplant system must be less than the corresponding critical temperature. In order to validate the temperature of each device in the flight envelope, tests at the border should be done. Airbus produces for each aircraft component many trials, either in flight or ground. However, all flight tests are faced with climatic and operational constraints which do not permit exploring the whole area. That's why Airbus needs to develop methods of extrapolation of temperature in order to predict the thermal behavior of materials and equipments in the worst conditions. The proposed techniques are based on the system identification theory which consists on heuristically determining an analytical model using physical insights and measurements. More precisely, this paper validates ARX models as a tool for the identification of the system's temperature. The models and techniques are studied, first, from a numerical simulation point of view and second, based on laboratory representative tests. The proposed techniques allow predicting the temperature of aircraft components at different conditions
APA, Harvard, Vancouver, ISO, and other styles
34

Petitjean, Julien. "Contributions au traitement spatio-temporel fondé sur un modèle autorégressif vectoriel des interférences pour améliorer la détection de petites cibles lentes dans un environnement de fouillis hétérogène Gaussien et non Gaussien." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14157/document.

Full text
Abstract:
Cette thèse traite du traitement adaptatif spatio-temporel dans le domaine radar. Pour augmenter les performances en détection, cette approche consiste à maximiser le rapport entre la puissance de la cible et celle des interférences, à savoir le bruit thermique et le fouillis. De nombreuses variantes de cet algorithme existent, une d’entre elles est fondée sur une modélisation autorégressive vectorielle des interférences. Sa principale difficulté réside dans l’estimation des matrices autorégressives à partir des données d’entrainement ; ce point constitue l’axe de notre travail de recherche. En particulier, notre contribution porte sur deux aspects. D’une part, dans le cas où l’on suppose que le bruit thermique est négligeable devant le fouillis non gaussien, les matrices autorégressives sont estimées en utilisant la méthode du point fixe. Ainsi, l’algorithme est robuste à la distribution non gaussienne du fouillis.D’autre part, nous proposons une nouvelle modélisation des interférences différenciant le bruit thermique et le fouillis : le fouillis est considéré comme un processus autorégressif vectoriel, gaussien et perturbé par le bruit blanc thermique. Ainsi, de nouvelles techniques d'estimation des matrices autorégressives sont proposées. La première est une estimation aveugle par bloc reposant sur la technique à erreurs dans les variables. Ainsi, l’estimation des matrices autorégressives reste robuste pour un rapport faible entre la puissance de la cible et celle du fouillis (< 5 dB). Ensuite, des méthodes récursives ont été développées. Elles sont fondées sur des approches du type Kalman : filtrage de Kalman étendu et filtrage par sigma point (UKF et CDKF), ainsi que sur le filtre H∞.Une étude comparative sur des données synthétiques et réelles, avec un fouillis gaussien ou non gaussien, est menée pour révéler la pertinence des différents estimateurs en terme de probabilité de détection
This dissertation deals with space-time adaptive processing in the radar’s field. To improve the detection’s performances, this approach consists in maximizing the ratio between the target’s power and the interference’s one, i.e. the thermal noise and the clutter. Several variants of its algorithm exist, one of them is based on multichannel autoregressive modelling of interferences. Its main problem lies in the estimation of autoregressive matrices with training data and guides our research’s work. Especially, our contribution is twofold.On the one hand, when thermal noise is considered negligible, autoregressive matrices are estimated with fixed point method. Thus, the algorithm is robust against non-gaussian clutter.On the other hand, a new modelling of interferences is proposed. The clutter and thermal noise are separated : the clutter is considered as a multichannel autoregressive process which is Gaussian and disturbed by the white thermal noise. Thus, new estimation’s algorithms are developed. The first one is a blind estimation based on errors in variable methods. Then, recursive approaches are proposed and used extension of Kalman filter : the extended Kalman filter and the Sigma Point Kalman filter (UKF and CDKF), and the H∞ filter. A comparative study on synthetic and real data with Gausian and non Gaussian clutter is carried out to show the relevance of the different algorithms about detection’s probability
APA, Harvard, Vancouver, ISO, and other styles
35

Soltane, Marius. "Statistique asymptotique de certaines séries chronologiques à mémoire." Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1027.pdf.

Full text
Abstract:
Cette thèse est dévolue à la statistique inférentielle asymptotique de différents modèles chronologiques dirigés par un bruit comportant de la mémoire. Dans ces modèles, l'estimateur des moindres carrés n'est pas consistant et nous considérons d'autres estimateurs. Nous commençons par étudier les propriétés asymptotiques presquesûres de l'estimateur du maximum de vraisemblance du coefficient d'autorégression dans un processus autorégressif dirigé par un bruit gaussien stationnaire. Nous présentons ensuite une procédure statistique afin de détecter un changement de régime au sein de ce modèle en s'inspirant du cas classique dirigé par un bruit blanc fort. Nous abordons ensuite un modèle autorégressif où les coefficients sont aléatoires et possèdent une courte mémoire. Là encore l'estimateur des moindres carrés n'est pas consistant et nouscorrigeons l'estimation afin d'estimer correctement les paramètres du modèle. Pour finir nous étudions un nouvel estimateur joint de l'exposant de Hurst et de la variance dans un bruit gaussien fractionnaire observé à haute fréquence dont les qualités sont comparables au maximum de vraisemblance
This thesis is devoted to asymptotic inferenre of differents chronological models driven by a noise with memory. In these models, the least squares estimator is not consistent and we consider other estimators. We begin by studying the almost-sureasymptotic properties of the maximum likelihood estimator of the autoregressive coefficient in an autoregressive process drivenby a stationary Gaussian noise. We then present a statistical procedure in order to detect a change of regime within this model,taking inspiration from the classic case driven by a strong white noise. Then we consider an autoregressive model where the coefficients are random and have a short memory. Here again, the least squares estimator is not consistent and we correct the previous statistic in order to correctly estimate the parameters of the model. Finally we study a new joint estimator of the Hurst exponent and the variance in a fractional Gaussian noise observed at high frequency whose qualities are comparable to the maximum likelihood estimator
APA, Harvard, Vancouver, ISO, and other styles
36

Tatsa, Sylvestre. "Modélisation et prévision de la consommation horaire d'électricité au Québec : comparaison de méthodes de séries temporelles." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30329/30329.pdf.

Full text
Abstract:
Ce travail explore la dynamique de consommation résidentielle d’électricité au Québec à l’aide de données horaires fournies par Hydro-Québec pour la période de janvier 2006 à décembre 2010. Nous considérons trois modèles autorégressifs standards en analyse des séries temporelles : le lissage exponentiel Holt-Winters, le modèle ARIMA saisonnier (SARIMA) et le modèle ARIMA saisonnier avec variables exogènes (SARIMAX). Pour ce dernier modèle, nous nous concentrons sur l’effet des variables climatiques (la température, l’humidité relative et le point de rosé et la nébulosité). Les facteurs climatiques ont un impact important sur la consommation d’électricité à très court terme. La performance prédictive intra et hors échantillon de chaque modèle est évaluée avec différents indicateurs d’ajustement. Trois horizons temporels hors-échantillon sont testés : 24 heures (un jour), 72 heures (trois jours) et 168 heures (1 semaine). Le modèle SARIMA offre la meilleure performance prédictive hors-échantillon sur 24 heures. Le modèle SARIMAX se révèle le plus performant hors-échantillon sur les horizons temporels de 72 et 168 heures. Des recherches supplémentaires seraient nécessaires pour obtenir des modèles de prévision pleinement satisfaisant du point de vue méthodologique. Mots clés : modèles de séries temporelles, électricité, lissage exponentiel, SARIMA, SARIMAX.
This work explores the dynamics of residential electricity consumption in Quebec using hourly data from January 2006 to December 2010. We estimate three standard autoregressive models in time series analysis: the Holt-Winters exponential smoothing, the seasonal ARIMA model (SARIMA) and the seasonal ARIMA model with exogenous variables (SARIMAX). For the latter model, we focus on the effect of climate variables (temperature, relative humidity and dew point and cloud cover). Climatic factors have a significant impact on the short-term electricity consumption. The intra-sample and out-of-sample predictive performance of each model is evaluated with various adjustment indicators. Three out-of-sample time horizons are tested: 24 hours (one day), 72 hours (three days) and 168 hours (1 week). The SARIMA model provides the best out-of-sample predictive performance of 24 hours. The SARIMAX model reveals the most powerful out-of-sample time horizons of 72 and 168 hours. Additional research is needed to obtain predictive models fully satisfactory from a methodological point of view. Keywords: modeling, electricity, Holt-Winters, SARIMA, SARIMAX.
APA, Harvard, Vancouver, ISO, and other styles
37

Bobillet, William. "Contribution à l'étude des modèles à erreurs dans les variables : application au traitement de la parole et à l'estimation de canaux de propagation." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13391.

Full text
Abstract:
Dans ce mémoire, nous proposons de reformuler des problèmes classiques d'identification à l'aide de modèles à erreurs dans les variables (EIV). Dans le premier chapitre, nous présentons le schéma de Frisch, dans un cadre générique, sous sa forme dédiée à l'identification de modèles paramètriques en traitement du signal. Les principales propriétés utilisées dans le mémoire sont tout d'abord énoncées et démontrées. Ainsi, nous précisons l'ensemble des solutions théoriques du schéma de Frisch appliqué à une matrice définie positive R. Puis, nous présentons le schéma de Frisch pour l'identificaion de systèmes linéaires dynamiques. Nous montrons alors l'équivalence entre la résolution du schéma de Frisch dans le domaine fréquentiel et sa résolutjion lorsqu'il est appliqué à une suite de matrices définies positives, de taille croissante et convenablement choisies. Dans le deuxième chapitre, nous développons des techniques d'estimation de paramètres AR à partir d'observations bruitées. Pour cela, nous transformons le modèle AR+bruit en un modèle EIV équivalent. Nous nous intéressons ensuite à certaines caractéristiques spéctrales des solutions données par le schéma de Frisch et montrons qu'elles généralisent des approches classiques comme les équations de Yule-Walker compensées. Enfin, les méthodes proposées sont appliquées au rehaussement d'un signal de parole et à l'estimation de canaux de Rayleigh. Le troisième chapitre est consacré à l'identifcation de sytèmes SIMO modélisés par des filtres à réponse impulsionnelle finie. Nous présentons la résolution théorique du schéma de Frisch correspondant et proposons des critères nécessaires à sa résolution dans les cas réels. . . . . .
APA, Harvard, Vancouver, ISO, and other styles
38

Scheer-Dorr, Christiane. "Méthodes paramétriques d'analyse du signal EEG : application à la détection, localisation et analyse spectrale de fuseaux de sommeil." Nancy 1, 1991. http://www.theses.fr/1991NAN10238.

Full text
Abstract:
Le travail présenté dans ce mémoire est relatif à la détection, la localisation et l'analyse spectrale des fuseaux de sommeil (en anglais spindles). Après une présentation des différentes caractéristiques du signal EEG et du contexte de l'étude, le problème de la détection des fuseaux de sommeil est traité. Quatre méthodes sont évaluées. Les deux premières sont fondées sur des techniques de rupture de modèles et les deux autres sur le test d'une ou plusieurs caractéristiques du spindle. Le problème de la localisation des spindles est abordé ensuite. Nous appliquons deux procédures différentes. La première consiste à extraire le signal enveloppé du fuseau et à lui appliquer le test de Hinkley, la seconde utilise l'approche asymptotique locale couplée au test du rapport de vraisemblance généralise (en anglais generalized likelihood rati: GLR). La dernière partie de ce mémoire traite de l'analyse spectrale des spindles. Dans un premier temps, un panorama des méthodes d'estimation spectrale est dressé. Dans un second temps une étude comparative de ces méthodes sur des signaux sinusoïdaux est présentée. L'analyse spectrale des fuseaux de sommeil préalablement localisés est alors effectuée en utilisant l'algorithme forward-backward associe à l'estimateur de Prony
APA, Harvard, Vancouver, ISO, and other styles
39

Toulemonde, Gwladys. "Estimation et tests en théorie des valeurs extrêmes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00348589.

Full text
Abstract:
Cette thèse se décompose en trois parties distinctes auxquelles s'ajoute une introduction. Dans un premier temps, nous nous intéressons à un test lisse d'ajustement à la famille de Pareto. Pour cela, nous proposons une statistique de test motivée par la théorie de LeCam sur la normalité asymptotique locale (LAN). Nous en établissons le comportement asymptotique sous l'hypothèse que l'échantillon provient d'une distribution de Pareto et sous des alternatives locales, nous plaçant ainsi dans le cadre LAN. Des simulations sont présentées afin d'étudier le comportement de la statistique de test à distance finie. Dans le chapitre suivant, nous nous plaçons dans le cadre de données censurées aléatoirement à droite. Nous proposons alors un estimateur des paramètres de la distribution de Pareto généralisée basé sur une première étape de l'algorithme de Newton-Raphson. Nous établissons la normalité asymptotique de cet estimateur. Par des simulations, nous illustrons son comportement à distance finie et le comparons à celui de l'estimateur du maximum de vraisemblance. Nous proposons enfin, dans un dernier chapitre, un modèle linéaire autorégressif adapté à la loi de Gumbel pour prendre en compte la dépendance dans les maxima. Nous établissons des propriétés théoriques de ce modèle et par simulations nous illustrons son comportement à distance finie. Enfin, comme des applications concrètes en sciences de l'atmosphère motivaient ce modèle, nous l'avons utilisé pour modéliser des maxima de dioxyde de carbone et de méthane.
APA, Harvard, Vancouver, ISO, and other styles
40

Lounis, Tewfik. "Inférences dans les modèles ARCH : tests localement asymptotiquement optimaux." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0222/document.

Full text
Abstract:
L'objectif de cette thèse est la construction des tests localement et asymptotiquement optimaux. Le problème traité concerne un modèle qui contient une large classe de modèles de séries chronologiques. La propriété de la normalité asymptotique locale (LAN) est l'outil fondamental utilisé dans nos travaux de recherches. Une application de nos travaux en finance est proposée
The purpose of this phD thesis is the construction of alocally asymptotically optimal tests. In this testing problem, the considered model contains a large class of time series models. LAN property was the fundamental tools in our research works. Our results are applied in financial area
APA, Harvard, Vancouver, ISO, and other styles
41

Lemus, Antonio. "Les effets des chocs internes et externes sur une petite économie ouverte : le cas du Chili." Thesis, Paris 10, 2016. http://www.theses.fr/2016PA100141/document.

Full text
Abstract:
La globalisation est probablement la caractéristique principale de l'économie mondiale du 21e siècle. Elle se traduit notamment par l'intégration par les canaux commerciaux, financiers et les marchés de matières premières. Si un tel contexte affecte de manière très significative tous les types d'économies, il convient de souligner que les petites économies ouvertes dépendantes des exportations de matières premières, et ouvertes aux marchés financiers globaux, sont en général les plus exposées. L'économie chilienne possède toutes ces caractéristiques. C’est dans ce contexte que cette thèse explore l'efficacité de la politique budgétaire chilienne et les effets des prix des matières premières et des chocs financiers internationaux sur le PIB chilien et d'autres variables macro-économiques importantes. A cette fin, on utilise une approche empirique basée sur des modèles vectoriels autorégressifs
The economic globalization is probably the main feature of the 21st century world economy, with economic integration and interdependence of national economies across the world particularly common in commodity and financial markets. Such a context greatly affect all types of economies though those small, dependent on commodity exports, and open to global financial markets are usually the most exposed. Having in mind this scenario, in this Ph.D. dissertation we explore the effectiveness of the Chilean fiscal policy and the effects of commodity prices and foreign financial shocks, on the Chilean GDP and other macroeconomic fundamentals using an empirical approach based on alternative vector autoregressive models.To understand the effectiveness of the country’s fiscal policy aiming at guarantying macroeconomic stability, in the Chapter 1 of this Ph.D. dissertation we study the dynamic effects of fiscal policy on the Chilean macroeconomic fundamentals and the size of fiscal multipliers. Chapter 2 examines how shocks to commodity prices affect the Chilean economic output, fiscal accounts and private consumption, based on correlations analysis and vector autoregression models. In the Chapter 3 of this Ph.D. dissertation we study the effect of foreign financial shocks on the Chilean real economy
APA, Harvard, Vancouver, ISO, and other styles
42

Vázquez, Guevara Víctor Hugo. "Asymptotical results for models ARX in adaptive tracking." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14032/document.

Full text
Abstract:
Cette thèse est consacrée aux résultats asymptotiques pour les modèles ARX en poursuite adaptative. Elle est constituée de quatre parties. La première partie est une brève introduction sur les modèles ARMAX et un état de l’art des principaux résultats de la littérature en poursuite adaptative. La seconde partie porte sur l’introduction d’un nouveau concept de contrôlabilité forte pour les modèles ARX en poursuite adaptative. Il permet de généraliser les résultats antérieurs. On montre la convergence presque sûre des algorithmes des moindres carrés ordinaires et pondérés. On établit également le théorème de la limite centrale ainsi que la loi du logarithme itéré pour ces deux algorithmes. La troisième partie est dédiée aux modèles ARX qui ne sont pas fortement contrôlables. On montre que, via un contrôle de poursuite excité, il est possible de s’affranchir de l’hypothèse de forte contrôlabilité. La quatrième partie est consacrée au comportement asymptotique de la statistique de Durbin-Watson pour les modèles ARX en poursuite adaptative via des arguments martingales
This thesis is devoted to asymptotical results for ARX models in adaptive tracking. It is divided into four parts. The first part is a short introduction on ARMAX models together with a state of the art on the main results in the literature on adaptive tracking. The second part deals with a new concept of strong controllability for ARX models in adaptive tracking. This new notion allows us to extend the previous convergence results. We prove the almost sure convergence for both least squares and weighted least squares algorithms. We also establish a central limit theorem and a law of iterated logarithm for these two algorithms. The third part is dedicated to ARX models that are not strongly controllable. Thanks to a persistently excited adaptive tracking control, we show that it is possible to get rid of the strong controllability assumption. The fourth part deals with the asymptotic behaviour of the Durbin-Watson statistic for ARX models in adaptive tracking via a martingale approach
APA, Harvard, Vancouver, ISO, and other styles
43

Auber, Romain. "Contribution à la reconnaissance d'activités à partir d'un objet connecté." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC242.

Full text
Abstract:
Ce manuscrit porte sur la reconnaissance d’activités à partir de données accéléromètriques. Le dispositif utilisé pour collecter les données de l’accéléromètre est eTact, dispositif développé par la société Bodycap. Plusieurs solutions sont proposées afin d'optimiser l’autonomie de l’objet connecté. Ces solutions sont mises en oeuvre et comparées sur différentes séries de données. L'originalité d'une de ces solutions consiste à binariser les données de l’accéléromètre avant de les transférer vers une plateforme externe où elles sont analysées. L’utilisation de données binaires entraîne la perte de nombreuses informations, cependant il est montré dans ce manuscrit qu’il est possible d’estimer, entres autres, les paramètres d'un modèle Auto Régressif d’une série temporelle à partir de l'information binaire sur cette série. A ce titre, un algorithme d'identification est proposé et analysé
This manuscript deals with the recognition of activities from accelerometric data. The device used to collect the accelerometer data is eTact, a device developed by Bodycap. Several solutions are proposed to optimize the autonomy of the connected object. These solutions are implemented and compared on different data sets. The originality of one of these solutions is to binarize the data of the accelerometer before transferring them to an external platform where they are analyzed. The use of binary data induces the loss of a lot of information, however it is shown in this manuscript that it is possible to estimate, among other things, the parameters of an Auto Regressive model of a time series from the binary information on this series. In this respect, an identification algorithm is proposed and analyzed
APA, Harvard, Vancouver, ISO, and other styles
44

Bonilla, Bolanos Andrea. "A step further in the theory of regional economic integration : a look at the Unasur's integration strategy." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22009.

Full text
Abstract:
La nouvelle stratégie d'intégration adoptée en 2000 par les pays Sud-Américains, après trois décennies d'instabilité économique et de crises récurrentes, est un jalon de l'histoire économique de la région. En effet, la volatilité du cycle économique de ces pays s'est réduite significativement à partir de cette date, atteignant son niveau le plus bas depuis 1950. L'analyse d'un tel phénomène est particulièrement intéressante en particulier lorsque l'on se place dans le contexte de turbulences et de crises des années 2000, à savoir, la crise financière mondiale (2008-2009) et, dans son sillage, la crise des dettes souveraines en zone euro. Dans cette thèse, l'objectif est d'étudier le projet d'intégration régionale d'Amérique du Sud, institutionnalisé en 2008 avec la création de l'Union des Nations Sud-Américaines Unasur, en tant que vecteur de stabilisation de ces économies. De ce fait, il s'agit de concentrer l'analyse sur les interactions entre les douze pays du continent Sud-Américain – Argentine, Bolivie, Brésil, Chili, Colombie, Équateur, Guyana, Paraguay, Pérou, Uruguay, Suriname et Venezuela – qui forment un groupe hétérogène autour d'un objectif commun l' "… intégration culturelle, sociale, économique et politique …" et la "… réduction des asymétries de la qualité de vie de ses citoyens … ". La thèse s'intéresse exclusivement aux aspects économiques d'un tel projet d'intégration régionale. À partir d'outils empiriques et théoriques, nous cherchons à évaluer le niveau de convergence et de vulnérabilité des économies concernées. Plus particulièrement une analyse des impacts des politiques d'intégration dans court terme et une étude de leurs performances macroéconomiques de long terme. La thèse se divise en quatre chapitres et s'appuie sur des modèles qui intègrent diverses sources de diffusion des chocs asymétriques. Le premier chapitre présente l'état de l'art de la théorie d'intégration économique régionale en soulignant le cas Sud-Américain. Le deuxième chapitre analyse, à l'aide de modèles vectoriels autorégressifs structurels et de mesures de corrélation, l'impact de chocs externes sur les secteurs réel, monétaire et budgétaire des pays membres de l'Unasur. L'analyse montre que : (i) même les pays les plus fermés (Argentine et Venezuela) et les plus industrialisées (Brésil) présentent une forte vulnérabilité aux perturbations internationales, (ii) cette vulnérabilité individuelle se traduit en une convergence de court terme des trajectoires des principales variables macroéconomiques des pays concernés. Dans le troisième chapitre, on cherche à mesurer le degré de convergence de long terme des niveaux de vie des citoyens Sud-Américains à l’aide de modèles empiriques vectoriels à correction d'erreur et de techniques de cointégration. Les résultats montrent l'existence de tendances stochastiques communes à long terme. Cela signifie que les pays sont engagés dans un processus d'évolution vers un objectif commun, autrement dit, que les conditions de vie des citoyens Sud-Américains ne divergent pas à long terme. En fin, le troisième chapitre vise à analyser l'impact de l'investissement dans la construction de réseaux régionaux de transport, de communication et d'énergie, sur la réduction de l'hétérogénéité structurelle des pays de l'Unasur (projet IIRSA). En effectuant un certain nombre d'expériences de politique dans un cadre théorique, cette analyse constate que : (i) une accroissement d'investissement public en infrastructure suscite une augmentation du commerce intra-intra-régional mais pas forcément une réduction de l'écart de production entre les pays, (ii) l'écart de production à long terme entre l'Argentine et le Brésil diminue, dans un scénario gagnant-gagnant, en termes de croissance économique, seulement si les gouvernements de ces deux pays coordonnent leur augmentation d'investissement en infrastructure, comme proposé par l'IIRSA
Economic integration seems to be a new global trend. The past two decades have witnessed the formation of several economic unions in Asia (ASEAN+3 in 1997), Europe (Eurozone in 1999), Africa, and America (Union of South American Nations, Unasur in 2008). The South American case deserves special attention because, unlike the other blocs, the Unasur emerged as a political alliance and not as an economic one. Furthermore, Unasur is conceived as a strategy for improving the socioeconomic conditions of nations that have a common history of economic instability and external dependence. However, while common concerns and political willingness exist among group members, the question of whether that consensus is sufficient to ensure economic integration remains unanswered. For instance, economic integration as a strategy for macroeconomic stability has seemed to work well in Europe after the euro was launched in 1999 (Sapir, 2011), until the breakdown of the European sovereign debt crisis in recent years has revealed the inherent weaknesses of an economic union that lacks a political union (Fligstein et al., 2012, Issing, 2011). This development suggests that the Unasur project is likely to fail if the concerned economies do not converge economically. This is the reason why, this thesis assesses the Unasur project from an economic integration perspective, thus, complementing the huge body of political literature that has been developed on the issue (Briceño-Ruiz, 2014, Sanahuja, 2012). The first chapter describes the theory of economic integration' state of art focusing on South America. The second chapter examines the reactions of the Unasur economies to external shocks. By using a structural vector autoregression approach, it measures the impact of three external shocks (monetary, commercial, and financial) in the real, monetary, and fiscal economic sectors of Unasur economies and investigates co-movement paths. The results show (i) a non-negligible degree of synchronization across the studied economies, confirming their high external vulnerability, (ii) irrespective of size or integration degree, all Unasur members share mutual weaknesses, which they must fight to overcome. The third chapter evaluates the convergence in real GDP per-capita, as a suitable proxy measure, of the concerned economies for the period 1951-2011. By relying on cointegration techniques and applying Bernard and Durlauf's (1995) stochastic definitions of convergence and common trends, the presented evidence supports the existence of common long-run trends driving output in South America, meaning that the region is involved in a dynamic process of convergence in living standards. Finally, the fourth chapter studies the economic spillovers of the most advanced structural project of the group: the Initiative for the Integration of Regional Infrastructure in South America (IIRSA). A micro-founded two-country general equilibrium model is constructed to evaluate potential gains or losses (in terms of output convergence and trade integration) of raising publicly provided transportation infrastructure in a coordinated and uncoordinated manner. The model is solved using data from Argentina and Brazil. Results show that: (i) rising public investment in infrastructure boost commercial integration but not necessarily generates output converge, (ii) the only way for the Argentina and Brazil to achieve output convergence is to coordinate their increments on public infrastructure as proposed by the IIRSA
APA, Harvard, Vancouver, ISO, and other styles
45

Fathallah, Hamdi. "Théorèmes limites pour des martingales vectorielles en temps continu et applications statistiques." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00586949.

Full text
Abstract:
Cette thèse se compose de trois parties. Dans la première partie, en utilisant les théorèmes limites par moyennisation logarithmique pour des martingales continues en temps continu, on construit un estimateur du couple $(\theta,\sigma^{2})$ pour un modèle autorégressif gaussien stable à temps continu et on montre que cet estimateur est asymptotiquement distribué comme un couple de variables aléatoires gaussiennes indépendantes quelle que soit la loi de l'\état initial $X_{0}$. La deuxième partie est consacrée à établir des résultats autour du théorème limite presque-sûre pour des martingales vectorielles quasi-continues à gauche en temps continu et à croissance explosive ou mixte. On applique les résultats obtenus au modèle d'Ornstein-Uhlenbeck bivarié utilisé en modélisation biologique et en mathématiques financières. Dans la dernière partie, on établit pour l'estimateur des moindres carrés $\hat{\theta}$ de $\theta$ d'un modèle autorégressif gaussien à temps continu non nécessairement stable, un théorème limite centrale presque-sûre (TLCPS), une loi forte quadratique associée au TLCPS et un théorème de la limite centrale logarithmique. Dans le cas stable, on propose d'utiliser l'estimateur des moindres carrés pondéré $\tilde{\theta}$ de $\theta$ pour améliorer les vitesses de convergence logarithmique dans les théorèmes obtenus. Dans le cas instable, on établit, pour l'estimateur des moindres carrés $\hat{\theta}$, les mêmes type de propriétés asymptotiques avec une vitesse de convergence arithmétique.
APA, Harvard, Vancouver, ISO, and other styles
46

Khereddine, R. "Méthode adaptative de contrôle logique et de test de circuits AMS/RF." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00656920.

Full text
Abstract:
Les technologies microélectroniques ainsi que les outils de CAO actuels permettent la conception de plus en plus rapide de circuits et systèmes intégrés très complexes. L'un des plus importants problèmes rencontrés est de gérer la complexité en terme de nombre de transistors présents dans le système à manipuler ainsi qu'en terme de diversité des composants, dans la mesure où les systèmes actuels intègrent, sur un même support de type SiP ou bien SoC, de plus en plus de blocs fonctionnels hétérogènes. Le but de cette thèse est la recherche de nouvelles techniques de test qui mettent à contribution les ressources embarquées pour le test et le contrôle des modules AMS et RF. L'idée principale est de mettre en oeuvre pour ces composantes des méthodes de test et de contrôle suffisamment simples pour que les ressources numériques embarquées puissent permettre leur implémentation à faible coût. Les techniques proposées utilisent des modèles de représentation auto-régressifs qui prennent en comptes les non linéarités spécifiques à ce type de modules. Les paramètres du modèle comportemental du système sont utilisés pour la prédiction des performances du système qui sont nécessaire pour l'élaboration de la signature de test et le contrôle de la consommation du circuit. Deux démonstrateurs ont été mis en place pour valider la technique proposée : une chaine RF conçue au sein du groupe RMS et un accéléromètre de type MMA7361L.
APA, Harvard, Vancouver, ISO, and other styles
47

Bitseki, Penda Siméon Valère. "Inégalités de déviations, principe de déviations modérées et théorèmes limites pour des processus indexés par un arbre binaire et pour des modèles markoviens." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00822136.

Full text
Abstract:
Le contrôle explicite de la convergence des sommes convenablement normalisées de variables aléatoires, ainsi que l'étude du principe de déviations modérées associé à ces sommes constituent les thèmes centraux de cette thèse. Nous étudions principalement deux types de processus. Premièrement, nous nous intéressons aux processus indexés par un arbre binaire, aléatoire ou non. Ces processus ont été introduits dans la littérature afin d'étudier le mécanisme de la division cellulaire. Au chapitre 2, nous étudions les chaînes de Markov bifurcantes. Ces chaînes peuvent être vues comme une adaptation des chaînes de Markov "usuelles'' dans le cas où l'ensemble des indices à une structure binaire. Sous des hypothèses d'ergodicité géométrique uniforme et non-uniforme d'une chaîne de Markov induite, nous fournissons des inégalités de déviations et un principe de déviations modérées pour les chaînes de Markov bifurcantes. Au chapitre 3, nous nous intéressons aux processus bifurcants autorégressifs d'ordre p (). Ces processus sont une adaptation des processus autorégressifs linéaires d'ordre p dans le cas où l'ensemble des indices à une structure binaire. Nous donnons des inégalités de déviations, ainsi qu'un principe de déviations modérées pour les estimateurs des moindres carrés des paramètres "d'autorégression'' de ce modèle. Au chapitre 4, nous traitons des inégalités de déviations pour des chaînes de Markov bifurcantes sur un arbre de Galton-Watson. Ces chaînes sont une généralisation de la notion de chaînes de Markov bifurcantes au cas où l'ensemble des indices est un arbre de Galton-Watson binaire. Elles permettent dans le cas de la division cellulaire de prendre en compte la mort des cellules. Les hypothèses principales que nous faisons dans ce chapitre sont : l'ergodicité géométrique uniforme d'une chaîne de Markov induite et la non-extinction du processus de Galton-Watson associé. Au chapitre 5, nous nous intéressons aux modèles autorégressifs linéaires d'ordre 1 ayant des résidus corrélés. Plus particulièrement, nous nous concentrons sur la statistique de Durbin-Watson. La statistique de Durbin-Watson est à la base des tests de Durbin-Watson, qui permettent de détecter l'autocorrélation résiduelle dans des modèles autorégressifs d'ordre 1. Nous fournissons un principe de déviations modérées pour cette statistique. Les preuves du principe de déviations modérées des chapitres 2, 3 et 4 reposent essentiellement sur le principe de déviations modérées des martingales. Les inégalités de déviations sont établies principalement grâce à l'inégalité d'Azuma-Bennet-Hoeffding et l'utilisation de la structure binaire des processus. Le chapitre 5 est né de l'importance qu'a l'ergodicité explicite des chaînes de Markov au chapitre 3. L'ergodicité géométrique explicite des processus de Markov à temps discret et continu ayant été très bien étudiée dans la littérature, nous nous sommes penchés sur l'ergodicité sous-exponentielle des processus de Markov à temps continu. Nous fournissons alors des taux explicites pour la convergence sous exponentielle d'un processus de Markov à temps continu vers sa mesure de probabilité d'équilibre. Les hypothèses principales que nous utilisons sont : l'existence d'une fonction de Lyapunov et d'une condition de minoration. Les preuves reposent en grande partie sur la construction du couplage et le contrôle explicite de la queue du temps de couplage.
APA, Harvard, Vancouver, ISO, and other styles
48

Caron, Nathalie. "Approches alternatives d'une théorie non informative des tests bayésiens." Rouen, 1994. http://www.theses.fr/1994ROUES028.

Full text
Abstract:
Le but de cette thèse est de comparer les réponses classiques (p-values) et bayésiennes dans le cadre d'un test bilatéral et d'introduire de nouvelles réponses bayésiennes non informatives. Elle comprend donc une présentation des réponses classiques et bayésiennes aux différents types de tests sous l'angle de la théorie de la décision. Le deuxième chapitre est consacré à la comparaison des réponses classiques et bayésiennes dans le cadre unidimensionnel en explicitant les critères de choix retenus pour définir une réponse bayésienne objective. Dans les chapitres trois et six, deux nouvelles réponses bayésiennes non informatives sont développées. Les autres chapitres constituent une généralisation du cadre unidimensionnel: les chapitres 4, 5 et 7 généralisent les résultats respectivement au cadre multidimensionnel, au cas d'un test avec des paramètres de nuisance et au cas d'observations corrélées par un modèle autorégressif
APA, Harvard, Vancouver, ISO, and other styles
49

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Full text
Abstract:
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)
This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
APA, Harvard, Vancouver, ISO, and other styles
50

Esstafa, Youssef. "Modèles de séries temporelles à mémoire longue avec innovations dépendantes." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD021.

Full text
Abstract:
Dans cette thèse nous considérons, dans un premier temps, le problème de l'analyse statistique des modèles FARIMA (Fractionally AutoRegressive Integrated Moving-Average) induits par un bruit blanc non corrélé mais qui peut contenir des dépendances non linéaires très générales. Ces modèles sont appelés FARIMA faibles et permettent de modéliser des processus à mémoire longue présentant des dynamiques non linéaires, de structures souvent non-identifiées, très générales. Relâcher l'hypothèse d'indépendance sur le terme d'erreur, une hypothèse habituellement imposée dans la littérature, permet aux modèles FARIMA faibles d'élargir considérablement leurs champs d'application en couvrant une large classe de processus à mémoire longue non linéaires. Les modèles FARIMA faibles sont denses dans l'ensemble des processus stationnaires purement non déterministes, la classe formée par ces modèles englobe donc celle des processus FARIMA avec un bruit indépendant et identiquement distribué (iid). Nous appelons par la suite FARIMA forts les modèles dans lesquels le terme d'erreur est supposé être un bruit iid.Nous établissons les procédures d'estimation et de validation des modèles FARIMA faibles. Nous montrons, sous des hypothèses faibles de régularités sur le bruit, que l'estimateur des moindres carrés des paramètres des modèles FARIMA(p,d,q) faibles est fortement convergent et asymptotiquement normal. La matrice de variance asymptotique de l'estimateur des moindres carrés des modèles FARIMA(p,d,q) faibles est de la forme "sandwich". Cette matrice peut être très différente de la variance asymptotique obtenue dans le cas fort (i.e. dans le cas où le bruit est supposé iid). Nous proposons, par deux méthodes différentes, un estimateur convergent de cette matrice. Une méthode alternative basée sur une approche d'auto-normalisation est également proposée pour construire des intervalles de confiance des paramètres des modèles FARIMA(p,d,q) faibles. Cette technique nous permet de contourner le problème de l'estimation de la matrice de variance asymptotique de l'estimateur des moindres carrés.Nous accordons ensuite une attention particulière au problème de la validation des modèles FARIMA(p,d,q) faibles. Nous montrons que les autocorrélations résiduelles ont une distribution asymptotique normale de matrice de covariance différente de celle obtenue dans le cadre des FARIMA forts. Cela nous permet de déduire la loi asymptotique exacte des statistiques portmanteau et de proposer ainsi des versions modifiées des tests portmanteau standards de Box-Pierce et Ljung-Box. Il est connu que la distribution asymptotique des tests portmanteau est correctement approximée par un khi-deux lorsque le terme d'erreur est supposé iid. Dans le cas général, nous montrons que cette distribution asymptotique est celle d'une somme pondérée de khi-deux. Elle peut être très différente de l'approximation khi-deux usuelle du cas fort. Nous adoptons la même approche d'auto-normalisation utilisée pour la construction des intervalles de confiance des paramètres des modèles FARIMA faibles pour tester l'adéquation des modèles FARIMA(p,d,q) faibles. Cette méthode a l'avantage de contourner le problème de l'estimation de la matrice de variance asymptotique du vecteur joint de l'estimateur des moindres carrés et des autocovariances empiriques du bruit.Dans un second temps, nous traitons dans cette thèse le problème de l'estimation des modèles autorégressifs d'ordre 1 induits par un bruit gaussien fractionnaire d'indice de Hurst H supposé connu. Nous étudions, plus précisément, la convergence et la normalité asymptotique de l'estimateur des moindres carrés généralisés du paramètre autorégressif de ces modèles
We first consider, in this thesis, the problem of statistical analysis of FARIMA (Fractionally AutoRegressive Integrated Moving-Average) models endowed with uncorrelated but non-independent error terms. These models are called weak FARIMA and can be used to fit long-memory processes with general nonlinear dynamics. Relaxing the independence assumption on the noise, which is a standard assumption usually imposed in the literature, allows weak FARIMA models to cover a large class of nonlinear long-memory processes. The weak FARIMA models are dense in the set of purely non-deterministic stationary processes, the class of these models encompasses that of FARIMA processes with an independent and identically distributed noise (iid). We call thereafter strong FARIMA models the models in which the error term is assumed to be an iid innovations.We establish procedures for estimating and validating weak FARIMA models. We show, under weak assumptions on the noise, that the least squares estimator of the parameters of weak FARIMA(p,d,q) models is strongly consistent and asymptotically normal. The asymptotic variance matrix of the least squares estimator of weak FARIMA(p,d,q) models has the "sandwich" form. This matrix can be very different from the asymptotic variance obtained in the strong case (i.e. in the case where the noise is assumed to be iid). We propose, by two different methods, a convergent estimator of this matrix. An alternative method based on a self-normalization approach is also proposed to construct confidence intervals for the parameters of weak FARIMA(p,d,q) models.We then pay particular attention to the problem of validation of weak FARIMA(p,d,q) models. We show that the residual autocorrelations have a normal asymptotic distribution with a covariance matrix different from that one obtained in the strong FARIMA case. This allows us to deduce the exact asymptotic distribution of portmanteau statistics and thus to propose modified versions of portmanteau tests. It is well known that the asymptotic distribution of portmanteau tests is correctly approximated by a chi-squared distribution when the error term is assumed to be iid. In the general case, we show that this asymptotic distribution is a mixture of chi-squared distributions. It can be very different from the usual chi-squared approximation of the strong case. We adopt the same self-normalization approach used for constructing the confidence intervals of weak FARIMA model parameters to test the adequacy of weak FARIMA(p,d,q) models. This method has the advantage of avoiding the problem of estimating the asymptotic variance matrix of the joint vector of the least squares estimator and the empirical autocovariances of the noise.Secondly, we deal in this thesis with the problem of estimating autoregressive models of order 1 endowed with fractional Gaussian noise when the Hurst parameter H is assumed to be known. We study, more precisely, the convergence and the asymptotic normality of the generalized least squares estimator of the autoregressive parameter of these models
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography