To see the other types of publications on this topic, follow the link: Série chronologique.

Dissertations / Theses on the topic 'Série chronologique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Série chronologique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Boughrara, Adel. "Sur la modélisation dynamique retrospective et prospective des séries temporelles : une étude méthodologique." Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX32054.

Full text
Abstract:
Le propos de cette these est une evaluation critique des methodes de rapprochement entre les faits et la theorie economique. Il s'agit plus precisement, de questionner les methodes econometriques actuellement en vigueur relativement a l'epistemologie scientifique. Nous avons considere dans ce travail deux strategies de modelisation : celle, dite prospective de hansen- sargent et celle, dite retrospective, de hendry- sargan. Nous avons montre que, contrairement a ce qu'on a tendance a croire, la modelisation retrospective de hendry-sargan n'est pas conforme a la philosophie falsificationniste de popper. La notion de rejet de modele est fallacieusement interpretee comme refutation. Le recours excessif aux tests d'hypotheses ne permet pas de conclure que cette strategie est popperienne. Les tests sont plutot utilises dans l'espoir d'elaborer des modeles "admissibles" conformement a la methodologie positiviste. S'agissant de la strategie prospective, son fondement epistemologique est relativement difficile a identifier : elle n'est pas falsificationniste puisque les donnees sont censees conforter la theorie et non la refuter. Mieux, le role des donnees de l'observation est mal defini dans cette strategie de modelisation, en particulier lorsqu'il s'agit d'adopter la methode de calibration pour valider le modele
The past years have witnessed intensive competition among economic and econometric methodologies attempting to explain macroeconomic behaviour. Alternative schools have made claims with respect both to the purity of their methodology and to their ability to explain the facts. This thesis investigates the epistemological foundations of the major competitors, namely, the new classical school with its links to prospective econometric modelling on the one hand, and the retrospective modelling which is more close to inductive methods, on the other hand. The main conclusion of the thesis is that none of the rival schools has a very tight link with the popperien epistemology of falsificationism
APA, Harvard, Vancouver, ISO, and other styles
2

Guillemé, Maël. "Extraction de connaissances interprétables dans des séries temporelles." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S102.

Full text
Abstract:
Energiency est une entreprise qui vend à des industriels une plate-forme pour leur permettre d’analyser leurs données de consommation d’énergie, représentées sous la forme de séries temporelles. Cette plate-forme intègre des modèles d’apprentissage automatique pour répondre aux besoins des clients. L’application de tels modèles sur des séries temporelles rencontre deux problèmes : d’une part certaines approches classiques d’apprentissage automatique ont été conçues pour des données tabulaires et doivent être adaptées aux séries temporelles, d’autre part les résultats de certaines approches sont difficilement compréhensibles par les utilisateurs finaux. Dans la première partie, nous adaptons une méthode de recherche d’occurrences de règles temporelles sur des séries temporelles issues de machines et d’infrastructures industrielles. Une règle temporelle capture des relations de succession entre des comportements dans les séries temporelles. Dans des séries industrielles, à cause de la présence de nombreux facteurs extérieurs, ces comportements réguliers peuvent présenter des perturbations. Les méthodes de recherche d’occurrences de règles temporelles actuelles utilisent une mesure de distance pour évaluer la similarité entre des sous-séries. Cependant, ces mesures ne sont pas adaptées pour évaluer la similarité de séries déformées tel que dans les séries temporelles industrielles. La première contribution de cette thèse est la proposition d’une méthode de recherche d’occurrences de règles temporelles capable de capturer cette variabilité dans des séries temporelles industrielles. Pour cela la méthode intègre l’utilisation de mesures de distance élastiques capables d’évaluer la similarité entre des séries temporelles légèrement déformées
Energiency is a company that sells a platform to allow manufacturers to analyze their energy consumption data represented in the form of time series. This platform integrates machine learning models to meet customer needs. The application of such models to time series encounters two problems: on the one hand, some classical machine learning approaches have been designed for tabular data and must be adapted to time series, on the other hand, the results of some approaches are difficult for end users to understand. In the first part, we adapt a method to search for occurrences of temporal rules on time series from machines and industrial infrastructures. A temporal rule captures successional relationships between behaviors in time series . In industrial series, due to the presence of many external factors, these regular behaviours can be disruptive. Current methods for searching the occurrences of a rule use a distance measure to assess the similarity between sub-series. However, these measurements are not suitable for assessing the similarity of distorted series such as those in industrial settings. The first contribution of this thesis is the proposal of a method for searching for occurrences of temporal rules capable of capturing this variability in industrial time series. For this purpose, the method integrates the use of elastic distance measurements capable of assessing the similarity between slightly deformed time series. The second part of the thesis is devoted to the interpretability of time series classification methods, i.e. the ability of a classifier to return explanations for its results. These explanations must be understandable by a human. Classification is the task of associating a time series with a category. For an end user inclined to make decisions based on a classifier’s results, understanding the rationale behind those results is of great importance. Otherwise, it is like having blind confidence in the classifier. The second contribution of this thesis is an interpretable time series classifier that can directly provide explanations for its results. This classifier uses local information on time series to discriminate against them. The third and last contribution of this thesis, a method to explain a posteriori any result of any classifier. We carried out a user study to evaluate the interpretability of our method
APA, Harvard, Vancouver, ISO, and other styles
3

Houfaidi, Souad. "Robustesse et comportement asymptotique d'estimateurs des paramètres d'une série chronologique : (AR(P) et ARMA(P, Q))." Nancy 1, 1986. http://www.theses.fr/1986NAN10065.

Full text
Abstract:
Nous définissons quelques estimateurs des paramètres d'un processus AR(P) (chapitre I), puis d'un processus ARMA(P,Q) (chapitre II). Nous étudions d'une part leurs robustesses et d'autre part leurs comportements asymptotiques (convergence presque sûre et normalité asymptotique). Nous donnons comme application (chapitre III), l'identification d'une série chronologique et recherche du M-estimateur associé
APA, Harvard, Vancouver, ISO, and other styles
4

Gagnon, Jean-François. "Prévision humaine de séries temporelles." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25243.

Full text
Abstract:
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
APA, Harvard, Vancouver, ISO, and other styles
5

Iraqui, Samir. "Détection statique en temps semi réel de valeurs aberrantes dans une série chronologique de données bactériologiques." Rouen, 1986. http://www.theses.fr/1986ROUES042.

Full text
Abstract:
Pour apprécier la qualité bactériologique du lait fourni par les producteurs aux laiteries, le Labilait procède au dénombrement de microorganismes aérobies, dans le lait collecté, à raison de 3 numérations mensuelles. A la fin du mois, un classement est affecté aux fournitures; de ce classement dépend la rémunération du producteur. Des résultats considérés comme "aberrants" par les laiteries peuvent être annulés (et donc ne pas intervenir dans le classement) si la demande est formulée auprès du laboratoire. Cette décision ne repose actuellement sur aucune analyse statistique bien précise. Ce travail consiste à proposer des méthodes statistiques de choix de valeurs dont l'annulation paraît se justifier. Sur un échantillon de 100 producteurs suivi pendant 2 ans, on met en oeuvre 2 méthodes (chacune à 2 seuils différents) et on compare leurs effets sur le classement mensuel des fournitures. L'une des méthodes proposées est fondée sur la recherche d'intervalles de prévision dans un modèle de régression linéaire; une note fournie en annexe précise cette notion et la compare à 2 versions d'intervalles de confiance dans ce modèle
APA, Harvard, Vancouver, ISO, and other styles
6

Chukunyere, Amenan Christiane. "Les modèles VAR(p)." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35696.

Full text
Abstract:
Ce mémoire a pour objectif d’étudier une famille de méthodes pour modéliser de façon conjointe plusieurs séries temporelles. Nous nous servons de ces méthodes pour prédire le comportement de cinq séries temporelles américaines et de ressortir les liens dynamiques qui pourraient exister entre elles. Pour ce faire, nous utilisons les modèles de vecteurs autorégressifs d’ordre p proposés par Sims (1980) qui sont une généralisation multivariée des modèles de Box et Jenkins. Tout d’abord, nous définissons un ensemble de concepts et outils statistiques qui seront utiles à la compréhension de notions utilisées par la suite dans ce mémoire. S’ensuit la présentation des modèles et de la méthode de Box et Jenkins. Cette méthode est appliquée à chacune des cinq séries en vue d’avoir des modèles univariés. Puis, nous présentons les modèles VAR(p) et nous faisons un essai d’ajustement de ces modèles à un vecteur dont les composantes sont les cinq séries. Nous discutons de la valeur ajoutée de l’analyse multivariée par rapport à l’ensemble des analyses univariées
This thesis aims to study a family of methods to jointly model several time series. We use these methods to predict the behavior of five US time series and to highlight the dynamic links that might exist between them. To do this, we use the p-order autoregressive vector models proposed by Sims (1980), which are a multivariate generalization of the Box and Jenkins models. First, we define a set of concepts and statistical tools that will be useful for the understanding of notions used later in this thesis. Follows the presentation of the models and the method of Box and Jenkins. This method is applied to each of the five series in order to have univariate models. Then, we present the VAR(p) models and we test the fit of these models to a vector series whose components are the five aforementioned series. We discuss the added value of multivariate analysis compared to the five univariate analyzes.
APA, Harvard, Vancouver, ISO, and other styles
7

Desrosiers, Maxime. "Le prix du risque idiosyncrasique : une analyse en séries temporelles et coupe transversale." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67076.

Full text
Abstract:
Le CAPM est une représentation stylisée de la rentabilité attendue des titres sur les marchés boursiers, mais comme plusieurs des hypothèses centrales du modèle ne tiennent pas lors d’analyses empiriques, sa pertinence en ce qui a trait aux paramètres prisés sur les marchés est limitée. L’objectif de ce mémoire est d’analyser s’il y a présence d’une prime de risque idiosyncrasique, de mesurer celle-ci et de voir si elle a un pouvoir explicatif significatif. Nous trouvons que les titres ayant les plus hauts risques idiosyncrasiques obtiennent des rendements le mois suivant de 1,18 à 1,98 point de pourcentage inférieur aux titres les moins risqués. En contrôlant pour la capitalisation boursière, l’effet persiste et le risque idiosyncrasique semble être un meilleur prédicteur du rendement d’une firme que la taille de celle-ci.
APA, Harvard, Vancouver, ISO, and other styles
8

Benson, Marie Anne. "Pouvoir prédictif des données d'enquête sur la confiance." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69497.

Full text
Abstract:
Les données d’enquête sur la confiance sont des séries chronologiques recensant les réponses à des questions visant à mesurer la confiance et les anticipations des agents économiques à propos de l’activité économique future. La richesse de ces données ainsi que leur disponibilité en temps réel suscitent l’intérêt de nombreux prévisionnistes, qui y voient un moyen d’améliorer leurs prévisions classiques. Dans ce mémoire, j’évalue le pouvoir prédictif des données d’enquête sur la confiance pour l’évolution future du PIB, tout en comparant notamment la performance prévisionnelle des indices de confiance produits par le Conférence Board of Canada aux indicateurs que je construis par l’analyse en composantes principales. À partir de trois modèles linéaires, j’analyse une expérience de prévision hors échantillon, de type « rolling windows », sur un échantillon couvrant la période 1980 à 2019. Les résultats démontrent que l’analyse en composantes principales fournissent des indicateurs plus performants que les indices de confiance du Conference Board. Cependant, les résultats de l’étude ne permettent pas d’affirmer clairement que la confiance améliore la prévision une fois que le taux de croissance retardé du PIB est incorporé.
Confidence survey data are time series containting the responses to questions aiming to measure confidence and expectations of economic agents about future economic activity. The richness of these data and their availability in real time attracts the interest of many forecasters who see it as a way to improve their traditional forecasts. In this thesis, I assess the predictive power of survey data for the future evolution of Canadian GDP, while comparing the forecasting performance of the Conference Board of Canada own confidence indices to the indicators I construct using principal component analysis. Using three simple linear models, I carry out an out-of-sample forecasting experiment with rolling windows on the period 1980 to 2019. The results show that principal component analysis provides better-performing indicators than the indices produced by the Conference Board. However, the results of the study cannot show that clear that confidence improves forecasting unambiguently once the lagged growth rate of GDP is added to the analysis.
APA, Harvard, Vancouver, ISO, and other styles
9

Tatsa, Sylvestre. "Modélisation et prévision de la consommation horaire d'électricité au Québec : comparaison de méthodes de séries temporelles." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30329/30329.pdf.

Full text
Abstract:
Ce travail explore la dynamique de consommation résidentielle d’électricité au Québec à l’aide de données horaires fournies par Hydro-Québec pour la période de janvier 2006 à décembre 2010. Nous considérons trois modèles autorégressifs standards en analyse des séries temporelles : le lissage exponentiel Holt-Winters, le modèle ARIMA saisonnier (SARIMA) et le modèle ARIMA saisonnier avec variables exogènes (SARIMAX). Pour ce dernier modèle, nous nous concentrons sur l’effet des variables climatiques (la température, l’humidité relative et le point de rosé et la nébulosité). Les facteurs climatiques ont un impact important sur la consommation d’électricité à très court terme. La performance prédictive intra et hors échantillon de chaque modèle est évaluée avec différents indicateurs d’ajustement. Trois horizons temporels hors-échantillon sont testés : 24 heures (un jour), 72 heures (trois jours) et 168 heures (1 semaine). Le modèle SARIMA offre la meilleure performance prédictive hors-échantillon sur 24 heures. Le modèle SARIMAX se révèle le plus performant hors-échantillon sur les horizons temporels de 72 et 168 heures. Des recherches supplémentaires seraient nécessaires pour obtenir des modèles de prévision pleinement satisfaisant du point de vue méthodologique. Mots clés : modèles de séries temporelles, électricité, lissage exponentiel, SARIMA, SARIMAX.
This work explores the dynamics of residential electricity consumption in Quebec using hourly data from January 2006 to December 2010. We estimate three standard autoregressive models in time series analysis: the Holt-Winters exponential smoothing, the seasonal ARIMA model (SARIMA) and the seasonal ARIMA model with exogenous variables (SARIMAX). For the latter model, we focus on the effect of climate variables (temperature, relative humidity and dew point and cloud cover). Climatic factors have a significant impact on the short-term electricity consumption. The intra-sample and out-of-sample predictive performance of each model is evaluated with various adjustment indicators. Three out-of-sample time horizons are tested: 24 hours (one day), 72 hours (three days) and 168 hours (1 week). The SARIMA model provides the best out-of-sample predictive performance of 24 hours. The SARIMAX model reveals the most powerful out-of-sample time horizons of 72 and 168 hours. Additional research is needed to obtain predictive models fully satisfactory from a methodological point of view. Keywords: modeling, electricity, Holt-Winters, SARIMA, SARIMAX.
APA, Harvard, Vancouver, ISO, and other styles
10

Bougas, Constantinos. "Forecasting Air Passenger Traffic Flows in Canada : An Evaluation of Time Series Models and Combination Methods." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30093/30093.pdf.

Full text
Abstract:
Ces quinze dernières années, le transport aérien a connu une expansion sans précédent au Canada. Cette étude fournit des prévisions de court et moyen terme du nombre de passagers embarqués\débarqués au Canada en utilisant divers modèles de séries chronologiques : la régression harmonique, le lissage exponentiel de Holt-Winters et les approches dynamiques ARIMA et SARIMA. De plus, elle examine si la combinaison des prévisions issues de ces modèles permet d’obtenir une meilleure performance prévisionnelle. Cette dernière partie de l’étude se fait à l’aide de deux techniques de combinaison : la moyenne simple et la méthode de variance-covariance. Nos résultats indiquent que les modèles étudiés offrent tous une bonne performance prévisionnelle, avec des indicateurs MAPE et RMSPE inférieurs à 10% en général. De plus, ils capturent adéquatement les principales caractéristiques statistiques des séries de passagers. Les prévisions issues de la combinaison des prévisions des modèles particuliers sont toujours plus précises que celles du modèle individuel le moins performant. Les prévisions combinées se révèlent parfois plus précises que les meilleures prévisions obtenues à partir d’un seul modèle. Ces résultats devraient inciter le gouvernement canadien, les autorités aéroportuaires et les compagnies aériennes opérant au Canada à utiliser des combinaisons de prévisions pour mieux anticiper l’évolution du traffic de passager à court et moyen terme. Mots-Clés : Passsagers aériens, Combinaisons de prévisions, Séries temporelles, ARIMA, SARIMA, Canada.
This master’s thesis studies the Canadian air transportation sector, which has experienced significant growth over the past fifteen years. It provides short and medium term forecasts of the number of enplaned/ deplaned air passengers in Canada for three geographical subdivisions of the market: domestic, transborder (US) and international flights. It uses various time series forecasting models: harmonic regression, Holt-Winters exponential smoothing, autoregressive-integrated-moving average (ARIMA) and seasonal autoregressive-integrated-moving average (SARIMA) regressions. In addition, it examines whether or not combining forecasts from each single model helps to improve forecasting accuracy. This last part of the study is done by applying two forecasting combination techniques: simple averaging and a variety of variance-covariance methods. Our results indicate that all models provide accurate forecasts, with MAPE and RMSPE scores below 10% on average. All adequately capture the main statistical characteristics of the Canadian air passenger series. Furthermore, combined forecasts from the single models always outperform those obtained from the single worst model. In some instances, they even dominate the forecasts from the single best model. Finally, these results should encourage the Canadian government, air transport authorities, and the airlines operating in Canada to use combination techniques to improve their short and medium term forecasts of passenger flows. Key Words: Air passengers, Forecast combinations, Time Series, ARIMA, SARIMA, Canada.
APA, Harvard, Vancouver, ISO, and other styles
11

Houndetoungan, Elysée Aristide. "Essays on Social Networks and Time Series with Structural Breaks." Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69494.

Full text
Abstract:
Cette thèse, structurée en trois (03) essais, développe de nouveaux modèles économétriques pour l’analyse des interactions sociales et des séries temporelles. Le premier chapitre (coécrit avec le Professeur Vincent Boucher) étudie une méthode d’estimation des effets de pairs à travers les réseaux sociaux lorsque la structure du réseau n’est pas observée. Nous supposons que nous connaissons (avons une estimation convergente de) la distribution du réseau. Nous montrons que cette hypothèse est suffisante pour l’estimation des effets de pairs en utilisant un modèle linéaire en moyennes. Nous proposons un estimateur de variables instrumentales et un estimateur bayésien. Nous présentons et discutons des exemples importants où notre méthodologie peut être appliquée. Nous présentons également une application avec la base de données Add Health largement utilisée et qui comporte de nombreux liens non observés. Nous estimons un modèle des effets de pairs sur la réussite scolaire des élèves. Nous montrons que notre estimateur bayésien reconstruit les liens manquants et permet d’obtenir une estimation valide des effets de pairs. En particulier, nous montrons qu’ignorer les liens manquants sous-estime l’effet endogène des pairs sur la réussite scolaire. Dans le deuxième chapitre, je présente un modèle structurel des effets de pairs dans lequel la variable dépendante est de type comptage (nombre de cigarettes fumées, fréquence des visites au restaurant, fréquence de participation aux activités). Le modèle est basé sur un jeu statique à information incomplète dans lequel, les individus interagissent à travers un réseau dirigé et sont influencés par leur croyance sur la décision de leurs pairs. Je présente des conditions suffisantes sous lesquelles l’équilibre du jeu est unique. Je montre que l’utilisation du modèle spatial autorégressif (SAR) linéaire-en-moyennes ou du modèle Tobit SAR pour estimer les effets de pairs sur des variables de comptage générées à partir du jeu sous-estime asymptotiquement les effets de pairs. Le biais d’estimation diminue lorsque la dispersion de la variable de comptage augmente. Je propose également une application empirique. J’estime les effets de pairs sur le nombre d’activités parascolaires auxquelles les étudiants sont inscrits. En contrôlant l’endogénéité du réseau, je trouve que l’augmentation du nombre d’activités dans lesquelles les amis d’un étudiant sont inscrits d’une unité implique une augmentation du nombre d’activités dans lesquelles l’étudiant est inscrit de 0,295. Je montre également que les effets de pairs sont sous-estimés à 0,150 lorsqu’on ignore la nature de comptage de la variable dépendante. Le troisième chapitre (coécrit avec le Professeur Arnaud Dufays et le Professeur Alain Coen) présente une approche de modélisation de séries temporelles. Les processus avec changements structurels sont une approche flexible pour modéliser des longues séries chronologiques. En considérant un modèle linéaire en moyennes, nous proposons une méthode qui relâche l’hypothèse selon laquelle une cassure structurelle dans une série temporelle implique un changement de tous les paramètres du modèle. Pour ce faire, nous estimons d’abord les dates de cassures potentielles présentées par la série, puis nous utilisons une régression pénalisée pour détecter les paramètres du modèle qui changent à chaque date de cassure. Étant donné que certains segments de la régression peuvent être courts, nous optons pour une fonction de pénalité(presque) non biaisée, appelée fonction de pénalitéseamless-L0(SELO). Nous montrons que l’estimateur SELO détecte de manière convergente les paramètres qui varient à chaque cassure et nous proposons d’utiliser un algorithme de maximisation d’espérance de recuit déterministe(DAEM) pour traiter la multimodalité de la fonction objectif. Étant donné que la fonction de pénalité SELO dépend de deux paramètres, nous utilisons un critère pour choisir les meilleurs paramètres et par conséquent le meilleur modèle. Ce nouveau critère présente une interprétation bayésienne qui permet d’évaluer l’incertitude des paramètres ainsi que l’incertitude du modèle. Les simulations de Monte Carlo montrent que la méthode fonctionne bien pour de nombreux modèles de séries temporelles, y compris des processus hétéroscédastiques. Pour un échantillon de 14 stratégies de hedge funds (HF), utilisant un modèle de tarification basé sur l’actif, nous mettons en exergue la capacité prometteuse de notre méthode à détecter la dynamique temporelle des expositions au risque ainsi qu’à prévoir les rendements HF.
This dissertation, composed of three (03) separate chapters, develops new econometric modelsfor peer effects analysis and time series modelling.The first chapter (a joint work with Professor Vicent Boucher) studies a method for estimatingpeer effects through social networks when researchers do not observe the network structure. We assume that researchers know (a consistent estimate of) the distribution of the network. We show that this assumption is sufficient for the estimation of peer effects using a linear-in-means model. We propose an instrumental variables estimator and a Bayesian estimator. We present and discuss important examples where our methodology can be applied. We also present an application with the widely used Add Health database which presents many missing links. We estimate a model of peer effects on students’ academic achievement. We show that our Bayesian estimator reconstructs these missing links and leads to a valid estimate of peer effects. In particular, we show that disregarding missing links underestimates the endogenous peer effect on academic achievement. In the second chapter, I present a structural model of peer effects in which the dependent variable is counting (Number of cigarettes smoked, frequency of restaurant visits, frequency of participation in activities). The model is based on a static game with incomplete information in which individuals interact through a directed network and are influenced by their belief over the choice of their peers. I provide sufficient conditions under which the equilibrium of the game is unique. I show that using the standard linear-in-means spatial autoregressive (SAR) model or the SAR Tobit model to estimate peer effects on counting variables generated from the game asymptotically underestimates the peer effects. The estimation bias decreases when the range of the dependent counting variable increases. I estimate peer effects on the number of extracurricular activities in which students are enrolled. I find that increasing the number of activities in which a student’s friends are enrolled by one implies an increase in the number of activities in which the student is enrolled by 0.295, controlling for the endogeneity of the network. I also show that the peer effects are underestimated at 0.150 when ignoring the counting nature of the dependent variable. The third chapter (a joint work with Professor Arnaud Dufays and Professor Alain Coen) presents an approach for time series modelling. Change-point (CP) processes are one flexible approach to model long time series. Considering a linear-in-means models, we propose a method to relax the assumption that a break triggers a change in all the model parameters. To do so, we first estimate the potential break dates exhibited by the series and then we use a penalized likelihood approach to detect which parameters change. Because some segments in the CP regression can be small, we opt for a (nearly) unbiased penalty function, called the seamless-L0 (SELO) penalty function. We prove the consistency of the SELO estimator in detecting which parameters indeed vary over time and we suggest using a deterministic annealing expectation-maximisation (DAEM) algorithm to deal with the multimodality of the objective function. Since the SELO penalty function depends on two tuning parameters, we use a criterion to choose the best tuning parameters and as a result the best model. This new criterion exhibits a Bayesian interpretation which makes possible to assess the parameters’ uncertainty as well as the model’s uncertainty. Monte Carlo simulations highlight that the method works well for many time series models including heteroskedastic processes. For a sample of 14 Hedge funds (HF) strategies, using an asset based style pricing model, we shed light on the promising ability of our method to detect the time-varying dynamics of risk exposures as well as to forecast HF returns.
APA, Harvard, Vancouver, ISO, and other styles
12

Ouldali, Naïm. "Impact à moyen terme de l'implémentation du vaccin conjugué pneumococcique 13 valences en pédiatrie : analyse de séries chronologiques interrompues." Thesis, Université de Paris (2019-....), 2020. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=4437&f=28972.

Full text
Abstract:
Introduction. Le bénéfice à moyen terme de l’implémentation des vaccins pneumococciques conjugués (VPCs) reste à préciser, du fait du remplacement sérotypique. Nous avons évalué en France, chez l’enfant, l’impact à moyen terme des VPC sur : (i) les méningites à pneumocoque, (ii) les pneumopathies aiguës communautaires (PAC), (iii) la dynamique de résistance aux antibiotiques des sérotypes pneumococciques dans le portage naso-pharyngé. Nous avons également évalué la qualité méthodologique de la littérature concernant l’impact des VPCs sur les infections pneumococciques. Méthodes. Nous avons exploité les données de 3 observatoires pédiatriques établis à l’échelle nationale : l’observatoire des méningites bactériennes de l’enfant (227 centres), l’observatoire des PAC (8 centres) et l’observatoire du portage pneumococcique (121 pédiatres de ville). Une analyse de séries chronologiques interrompues (SCI), promue par la Cochrane à la place des études avant-après, a été conduite, prenant en compte la tendance temporelle, la saisonnalité et l’autocorrélation des données, via des modèles de régression linéaire segmentée avec erreur auto-corrélée. Enfin, une revue systématique méthodologique a été conduite en incluant toutes les études évaluant l’impact des VPC sur les principales formes d’infections à pneumocoque à la fois chez l’enfant et l’adulte, via PubMed, Embase et les références des articles sélectionnés.Résultats. Après une baisse de l’incidence des méningites à pneumocoque de 38% (IC 95% [20 ; 56]) suite à l’implémentation du VPC13 en France, une remontée a été observée depuis Janvier 2015, principalement liée à l’émergence d’un sérotype non vaccinal. De la même manière, la fréquence des CAP a baissé de 44% (IC 95% [32 ; 56]) après l’implémentation du VPC13, mais depuis Juin 2014 seule une très modeste remontée a été observée. Pour le niveau de résistance des sérotypes pneumococciques, après une baisse notable suite au VPC13, une remontée progressive et constante est observée depuis Janvier 2014. Enfin, la revue systématique de la littérature a permis de sélectionner 377 études entre 2001 et 2018. Ces études utilisaient le design avant-après dans 78.5% des cas (N=296) contre 18.3% pour les SCI (N=69).Conclusion. L’impact à moyen terme des VPCs et les conséquences du remplacement sérotypique varient selon les pathologies pneumococciques. Ces résultats sont susceptibles d’évoluer dans les années à venir, nécessitant une surveillance continue. L’utilisation d’outils méthodologiques validés tels que les SCI reste minoritaire à ce jour, et doit être développée pour apprécier la complexité de l’évolution épidémiologique des infections pneumococciques au cours du temps
Background. Due to serotype replacement, the long-term impact of pneumococcal conjugate vaccines (PCVs) implementation remains to be evaluated. We aimed to assess, in children, the impact of PCV13 implementation on: (i) pneumococcal meningitis, (ii) community acquired pneumonia (CAP), and (iii) antibiotic susceptibility of pneumococcal strains in nasopharyngeal carriage. Finally, we conducted a methodological systematic review of the literature on assessing the impact of PCVs implementation. Methods. We used the quasi-experimental interrupted time series (ITS) analysis design with data from three French surveillance systems: (i) the national network of pediatric bacterial meningitis (230 centres), (ii) the CAP pediatric network (8 pediatric emergency departments), and (iii) an ambulatory network of pneumococcal carriage (121 pediatricians). A segmented regression model with autoregressive error was used, taking into account pre-intervention time trend, seasonality and autocorrelation. The methodological systematic review included all studies assessing the impact of PCVs implementation in children and adults, using PubMed, Embase, and references of selected articles. Results. After a 38% (95% CI [20; 56]) decrease of pneumococcal meningitis incidence following PCV13 implementation in 2010 in France, a rebound was observed since January 2015, mainly linked to the emergence of non-PCV13 serotypes. CAP rate also decreased significantly following PCV13 implementation (44% decrease, 95% CI [32; 56]), but since June 2014, only a slight increase was observed since June 2014. Regarding pneumococcal susceptibility in carriage, after a significant reduction of penicillin non-susceptibility following PCV13 implementation, a steady increase is observed since January 2014. Finally, 377 studies were included in the systematic review, from 2001 to 2018. Among them, 296 (78,5%) used the before-after design, and only 69 (18,3%) used the ITS design. Conclusions. After an important impact of PCV13, the consequences of serotype replacement in France may vary between pneumococcal disease. These findings may still evolve in the coming years, underlining the need of continuous active surveillance of these outcomes. Despite Cochrane recommendations, the use of ITS to assess PCVs impact remains largely infrequent worldwide, and needs to be promoted to adequately analyze the complex evolution of this pathogen over time
APA, Harvard, Vancouver, ISO, and other styles
13

Himdi, Khalid El. "Séries chronologiques binaires avec récompenses : Applications à la modélisation en climatologie." Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00320012.

Full text
Abstract:
Divers types de séries chronologiques binaires avec récompenses sont étudiés en vue de la modélisation de la succession des valeurs d'une variable climatologique dans une station de mesure pour une période donnée de l'année. Pour différentes hypothèses de dépendance entre les états successifs du processus, nous précisons les caractéristiques essentielles du modèle associé. Des essais de modélisation concernant les séries de précipitations journalières mesurées dans deux stations pluviométriques du réseau français illustrent les possibilités d'utilisation des modèles envisagés
APA, Harvard, Vancouver, ISO, and other styles
14

Madinier, Hubert. "Estimations conjointes de séries chronologiques interdépendantes." Paris 10, 1985. http://www.theses.fr/1985PA100027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Picard, Nico. "Exposants de Lyapounov et séries chronologiques." Nancy 1, 1991. http://www.theses.fr/1991NAN10006.

Full text
Abstract:
Cette thèse applique des techniques d'exposants de Lyapounov à l'étude des modèles autorégressifs généralises à coefficients aléatoires. Les conditions nécessaires et suffisantes d'existence d'une solution strictement stationnaire sont données. Ce résultat est appliqué aux arma multivariés, aux systèmes définis par une équation d'état et aux processus Garch. Les mêmes outils donnent une paramétrisation bijective des Garch
APA, Harvard, Vancouver, ISO, and other styles
16

Bahamonde, Natalia. "Estimation de séries chronologiques avec données manquantes." Paris 11, 2007. http://www.theses.fr/2007PA112115.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Francq, Christian. "Identification et minimalité dans les séries chronologiques." Montpellier 2, 1989. http://www.theses.fr/1989MON20210.

Full text
Abstract:
Pour un processus arma multivarie donne, il existe de multiples representations et les degres ne sont pas uniques. Les causes de la multiplicite des representations sont plus nombreuses et compliquees que dans le cas scalaire et il est necessaire de definir plusieurs types de representation minimale, c'est-a-dire de representation dont les degres sont, en un certain sens, les plus petits possibles. Dans le chapitre 1, nous caracterisons les degres des representations identifiables, a l'aide de la fonction d'autocovariance. Le chapitre 2 est consacre a l'estimation des degres d'un arma univarie a partir d'un estimateur de l'autocorrelation. Le chapitre 3 traite l'estimation des degres dans le cas multivarie. Dans le chapitre 4, nous abordons l'identification des modeles non lineaires par l'etude d'une sous-classe de processus bilineaires. En annexe, nous presentons une methode de generation rapide d'echantilons ordonnes d'une variable reelle permettant de fixer une qualite a priori pour la realisation obtenue
APA, Harvard, Vancouver, ISO, and other styles
18

Zakoian, Jean-Michel. "Modèles autorégressifs à seuil de séries chronologiques." Paris 9, 1990. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1990PA090014.

Full text
Abstract:
Ce travail est fondé sur l'introduction de seuils dans les modèles de séries temporelles. Nous commençons par présenter la théorie des chaines de Markov homogènes, nécessaire pour l'étude des processus non linéaires. Les modèles autorégressifs d'ordre un à un seuil font l'objet de la deuxième partie. Des propriétés distributionnelles sont obtenues au voisinage du modèle linéaire, ce qui permet d'obtenir des formules approchées pour diverses quantités: moyenne, variance, moments. . . Enfin, deux méthodes de test de l'hypothèse de linéarité sont proposées. La partie suivante propose une nouvelle classe de modèles ARCH (autogressive conditionally heteroskedastic). L'introduction de seuils dans la spécification de la variance conditionnelle permet la prise en compte d'effets spécifiques sur la volatilité (persistance, dissymétrie selon le signe des erreurs antérieures. . . ). Une étude complète est proposée: stationnarité faible, stationnarité stricte, calcul des moments, analyse de l'effet leptokurtique, comparaison avec les modèles ARCH, estimation des divers paramètres, test de l'hypothèse d'homoscédasticité. Enfin, la dernière partie de la thèse traite du passage au temps continu de modèles hétéroscédastiques à seuil
APA, Harvard, Vancouver, ISO, and other styles
19

El-Taib, El-Rafehi Ahmed. "Estimation des données manquantes dans les séries chronologiques." Montpellier 2, 1992. http://www.theses.fr/1992MON20239.

Full text
Abstract:
L'objectif de la these est de developper, de facon la plus exhaustive possible, la maniere de traiter, statistiquement, le probleme des donnees manquantes dans une collection d'informations chiffrees. En excluant le comportement facile, mais pourtant souvent employe, qui consiste a remplacer la (les) donnee(s) manquante(s) par l'intuition (sondages), le repiquage (series temporelles), ou l'elimination de lignes d'un tableau (statistiques multivariees). Nous proposons au contraire de realiser des choix, les plus pertinents possibles, dans la liste des solutions preconisees par les statisticiens depuis de nombreuses annees. Un schema methodologique est suggere permettant de guider le chercheur dans le labyrinthe de methodes exposees afin de s'y retrouver
APA, Harvard, Vancouver, ISO, and other styles
20

Soltane, Marius. "Statistique asymptotique de certaines séries chronologiques à mémoire." Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1027.pdf.

Full text
Abstract:
Cette thèse est dévolue à la statistique inférentielle asymptotique de différents modèles chronologiques dirigés par un bruit comportant de la mémoire. Dans ces modèles, l'estimateur des moindres carrés n'est pas consistant et nous considérons d'autres estimateurs. Nous commençons par étudier les propriétés asymptotiques presquesûres de l'estimateur du maximum de vraisemblance du coefficient d'autorégression dans un processus autorégressif dirigé par un bruit gaussien stationnaire. Nous présentons ensuite une procédure statistique afin de détecter un changement de régime au sein de ce modèle en s'inspirant du cas classique dirigé par un bruit blanc fort. Nous abordons ensuite un modèle autorégressif où les coefficients sont aléatoires et possèdent une courte mémoire. Là encore l'estimateur des moindres carrés n'est pas consistant et nouscorrigeons l'estimation afin d'estimer correctement les paramètres du modèle. Pour finir nous étudions un nouvel estimateur joint de l'exposant de Hurst et de la variance dans un bruit gaussien fractionnaire observé à haute fréquence dont les qualités sont comparables au maximum de vraisemblance
This thesis is devoted to asymptotic inferenre of differents chronological models driven by a noise with memory. In these models, the least squares estimator is not consistent and we consider other estimators. We begin by studying the almost-sureasymptotic properties of the maximum likelihood estimator of the autoregressive coefficient in an autoregressive process drivenby a stationary Gaussian noise. We then present a statistical procedure in order to detect a change of regime within this model,taking inspiration from the classic case driven by a strong white noise. Then we consider an autoregressive model where the coefficients are random and have a short memory. Here again, the least squares estimator is not consistent and we correct the previous statistic in order to correctly estimate the parameters of the model. Finally we study a new joint estimator of the Hurst exponent and the variance in a fractional Gaussian noise observed at high frequency whose qualities are comparable to the maximum likelihood estimator
APA, Harvard, Vancouver, ISO, and other styles
21

Alexander, Miranda Abhilash. "Spectral factor model for time series learning." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209812.

Full text
Abstract:
Today's computerized processes generate

massive amounts of streaming data.

In many applications, data is collected for modeling the processes. The process model is hoped to drive objectives such as decision support, data visualization, business intelligence, automation and control, pattern recognition and classification, etc. However, we face significant challenges in data-driven modeling of processes. Apart from the errors, outliers and noise in the data measurements, the main challenge is due to a large dimensionality, which is the number of variables each data sample measures. The samples often form a long temporal sequence called a multivariate time series where any one sample is influenced by the others.

We wish to build a model that will ensure robust generation, reviewing, and representation of new multivariate time series that are consistent with the underlying process.

In this thesis, we adopt a modeling framework to extract characteristics from multivariate time series that correspond to dynamic variation-covariation common to the measured variables across all the samples. Those characteristics of a multivariate time series are named its 'commonalities' and a suitable measure for them is defined. What makes the multivariate time series model versatile is the assumption regarding the existence of a latent time series of known or presumed characteristics and much lower dimensionality than the measured time series; the result is the well-known 'dynamic factor model'.

Original variants of existing methods for estimating the dynamic factor model are developed: The estimation is performed using the frequency-domain equivalent of the dynamic factor model named the 'spectral factor model'. To estimate the spectral factor model, ideas are sought from the asymptotic theory of spectral estimates. This theory is used to attain a probabilistic formulation, which provides maximum likelihood estimates for the spectral factor model parameters. Then, maximum likelihood parameters are developed with all the analysis entirely in the spectral-domain such that the dynamically transformed latent time series inherits the commonalities maximally.

The main contribution of this thesis is a learning framework using the spectral factor model. We term learning as the ability of a computational model of a process to robustly characterize the data the process generates for purposes of pattern matching, classification and prediction. Hence, the spectral factor model could be claimed to have learned a multivariate time series if the latent time series when dynamically transformed extracts the commonalities reliably and maximally. The spectral factor model will be used for mainly two multivariate time series learning applications: First, real-world streaming datasets obtained from various processes are to be classified; in this exercise, human brain magnetoencephalography signals obtained during various cognitive and physical tasks are classified. Second, the commonalities are put to test by asking for reliable prediction of a multivariate time series given its past evolution; share prices in a portfolio are forecasted as part of this challenge.

For both spectral factor modeling and learning, an analytical solution as well as an iterative solution are developed. While the analytical solution is based on low-rank approximation of the spectral density function, the iterative solution is based on the expectation-maximization algorithm. For the human brain signal classification exercise, a strategy for comparing similarities between the commonalities for various classes of multivariate time series processes is developed. For the share price prediction problem, a vector autoregressive model whose parameters are enriched with the maximum likelihood commonalities is designed. In both these learning problems, the spectral factor model gives commendable performance with respect to competing approaches.

Les processus informatisés actuels génèrent des quantités massives de flux de données. Dans nombre d'applications, ces flux de données sont collectées en vue de modéliser les processus. Les modèles de processus obtenus ont pour but la réalisation d'objectifs tels que l'aide à la décision, la visualisation de données, l'informatique décisionnelle, l'automatisation et le contrôle, la reconnaissance de formes et la classification, etc. La modélisation de processus sur la base de données implique cependant de faire face à d’importants défis. Outre les erreurs, les données aberrantes et le bruit, le principal défi provient de la large dimensionnalité, i.e. du nombre de variables dans chaque échantillon de données mesurées. Les échantillons forment souvent une longue séquence temporelle appelée série temporelle multivariée, où chaque échantillon est influencé par les autres. Notre objectif est de construire un modèle robuste qui garantisse la génération, la révision et la représentation de nouvelles séries temporelles multivariées cohérentes avec le processus sous-jacent.

Dans cette thèse, nous adoptons un cadre de modélisation capable d’extraire, à partir de séries temporelles multivariées, des caractéristiques correspondant à des variations - covariations dynamiques communes aux variables mesurées dans tous les échantillons. Ces caractéristiques sont appelées «points communs» et une mesure qui leur est appropriée est définie. Ce qui rend le modèle de séries temporelles multivariées polyvalent est l'hypothèse relative à l'existence de séries temporelles latentes de caractéristiques connues ou présumées et de dimensionnalité beaucoup plus faible que les séries temporelles mesurées; le résultat est le bien connu «modèle factoriel dynamique». Des variantes originales de méthodes existantes pour estimer le modèle factoriel dynamique sont développées :l'estimation est réalisée en utilisant l'équivalent du modèle factoriel dynamique au niveau du domaine de fréquence, désigné comme le «modèle factoriel spectral». Pour estimer le modèle factoriel spectral, nous nous basons sur des idées relatives à la théorie des estimations spectrales. Cette théorie est utilisée pour aboutir à une formulation probabiliste, qui fournit des estimations de probabilité maximale pour les paramètres du modèle factoriel spectral. Des paramètres de probabilité maximale sont alors développés, en plaçant notre analyse entièrement dans le domaine spectral, de façon à ce que les séries temporelles latentes transformées dynamiquement héritent au maximum des points communs.

La principale contribution de cette thèse consiste en un cadre d'apprentissage utilisant le modèle factoriel spectral. Nous désignons par apprentissage la capacité d'un modèle de processus à caractériser de façon robuste les données générées par le processus à des fins de filtrage par motif, classification et prédiction. Dans ce contexte, le modèle factoriel spectral est considéré comme ayant appris une série temporelle multivariée si la série temporelle latente, une fois dynamiquement transformée, permet d'extraire les points communs de façon fiable et maximale. Le modèle factoriel spectral sera utilisé principalement pour deux applications d'apprentissage de séries multivariées :en premier lieu, des ensembles de données sous forme de flux venant de différents processus du monde réel doivent être classifiés; lors de cet exercice, la classification porte sur des signaux magnétoencéphalographiques obtenus chez l'homme au cours de différentes tâches physiques et cognitives; en second lieu, les points communs obtenus sont testés en demandant une prédiction fiable d'une série temporelle multivariée étant donnée l'évolution passée; les prix d'un portefeuille d'actions sont prédits dans le cadre de ce défi.

À la fois pour la modélisation et pour l'apprentissage factoriel spectral, une solution analytique aussi bien qu'une solution itérative sont développées. Tandis que la solution analytique est basée sur une approximation de rang inférieur de la fonction de densité spectrale, la solution itérative est basée, quant à elle, sur l'algorithme de maximisation des attentes. Pour l'exercice de classification des signaux magnétoencéphalographiques humains, une stratégie de comparaison des similitudes entre les points communs des différentes classes de processus de séries temporelles multivariées est développée. Pour le problème de prédiction des prix des actions, un modèle vectoriel autorégressif dont les paramètres sont enrichis avec les points communs de probabilité maximale est conçu. Dans ces deux problèmes d’apprentissage, le modèle factoriel spectral atteint des performances louables en regard d’approches concurrentes.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
22

Alj, Abdelkamel. "Contribution to the estimation of VARMA models with time-dependent coefficients." Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209651.

Full text
Abstract:
Dans cette thèse, nous étudions l’estimation de modèles autorégressif-moyenne mobile

vectoriels ou VARMA, `a coefficients dépendant du temps, et avec une matrice de covariance

des innovations dépendant du temps. Ces modèles sont appel´es tdVARMA. Les éléments

des matrices des coefficients et de la matrice de covariance sont des fonctions déterministes

du temps dépendant d’un petit nombre de paramètres. Une première partie de la thèse

est consacrée à l’étude des propriétés asymptotiques de l’estimateur du quasi-maximum

de vraisemblance gaussienne. La convergence presque sûre et la normalité asymptotique

de cet estimateur sont démontrées sous certaine hypothèses vérifiables, dans le cas o`u les

coefficients dépendent du temps t mais pas de la taille des séries n. Avant cela nous considérons les propriétés asymptotiques des estimateurs de modèles non-stationnaires assez

généraux, pour une fonction de pénalité générale. Nous passons ensuite à l’application de

ces théorèmes en considérant que la fonction de pénalité est la fonction de vraisemblance

gaussienne (Chapitre 2). L’étude du comportement asymptotique de l’estimateur lorsque

les coefficients du modèle dépendent du temps t et aussi de n fait l’objet du Chapitre 3.

Dans ce cas, nous utilisons une loi faible des grands nombres et un théorème central limite

pour des tableaux de différences de martingales. Ensuite, nous présentons des conditions

qui assurent la consistance faible et la normalité asymptotique. Les principaux

résultats asymptotiques sont illustrés par des expériences de simulation et des exemples

dans la littérature. La deuxième partie de cette thèse est consacrée à un algorithme qui nous

permet d’évaluer la fonction de vraisemblance exacte d’un processus tdVARMA d’ordre (p, q) gaussien. Notre algorithme est basé sur la factorisation de Cholesky d’une matrice

bande partitionnée. Le point de départ est une généralisation au cas multivarié de Mélard

(1982) pour évaluer la fonction de vraisemblance exacte d’un modèle ARMA(p, q) univarié. Aussi, nous utilisons quelques résultats de Jonasson et Ferrando (2008) ainsi que les programmes Matlab de Jonasson (2008) dans le cadre d’une fonction de vraisemblance

gaussienne de modèles VARMA à coefficients constants. Par ailleurs, nous déduisons que

le nombre d’opérations requis pour l’évaluation de la fonction de vraisemblance en fonction de p, q et n est approximativement le double par rapport à un modèle VARMA à coefficients

constants. L’implémentation de cet algorithme a été testée en comparant ses résultats avec

d’autres programmes et logiciels très connus. L’utilisation des modèles VARMA à coefficients

dépendant du temps apparaît particulièrement adaptée pour la dynamique de quelques

séries financières en mettant en évidence l’existence de la dépendance des paramètres en

fonction du temps.


Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
23

El, Ghini Ahmed. "Contribution à l'identification de modèles de séries temporelles." Lille 3, 2008. http://www.theses.fr/2008LIL30017.

Full text
Abstract:
Cette thèse de doctorat comporte deux parties traitant des problèmes d'identification et de sélection en économétrie. Nous étudions les sujets suivants : (1) le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation, d'autocorrélation partielle, d'autocorrélation inverse et d'autocorrélation partielle inverse ; (2) l'estimation de la fonction d'autocorrélation inverse dans le cadre des séries temporelles non linéaires. Dans une première partie, nous considérons le problème d'identification de modèles de séries temporelles à l'aide des fonctions d'autocorrélation susmentionnées. Nous construisons des tests statistiques basés sur des estimateurs empiriques de ces fonctions puis nous étudions leur distribution asymptotique. En utilisant l'approche de Bahadur et de Pitman, nous comparons la performance de ces fonctions d'autocorrélation dans la détection de l'ordre d'une moyenne mobile et d'un modèle autorégressif. Par la suite, nous nous intéressons à l'identification du processus inverse d'un modèle ARMA et à l'étude des ses propriétés probabilistes. Enfin, nous caractérisons la réversibilité temporelle à l'aide des processus dual et inverse. La deuxième partie est consacrée à l'estimation de la fonction d'autocorrélation inverse dans le cadre des processus non linéaires. Sous certaines conditions de régularité, nous étudions les propriétés asymptotiques des autocorrélations inverses empiriques pour un processus stationnaire et fortement mélangeant. Nous obtenons la convergence et la normalité asymptotique des estimateurs. Par la suite, nous considérons le cas d'un processus linéaire généré par un bruit blanc de type GARCH. Nous obtenons une formule explicite pour la matrice d'autocovariance asymptotique. A l'aide d'exemples, nous montrons que la formule standard de cette matrice n'est pas valable lorsque le processus générateur des données est non linéaire. Enfin, nous appliquons les résultats précédents pour montrer la normalité asymptotique des estimateurs des paramètres d'une moyenne mobile faible. Nos résultats sont illustrés par des expériences
This PhD dissertation consists of two parts dealing with the probelms of identification and selection in econometrics. Two mains topics are considered : (1) time series model identification by using (inverse) autocorrelation and (inverse) partial autocorrelation functions ; (2) estimation of inverse autocorrelation function in the framework of nonlinear tima series. The two parts are summarized below. In the first part of this work, we consider time series model identification y using (inverse) autocorrelation and (inverse) partial autocorrelation functions. We construct statistical tests based on estimators of these functions and establish their asymptotic distribution. Using Bahadur and Pitman approaches, we compare the performance of (inverse) autocorelations and (inverse) partial autocorrelations in detecting the order of moving average and autoregressive model. Next, we study the identification of the inverse process of an ARMA model and their probalistic properties. Finally, we characterize the time reversibility by means of the dual and inverse processes. The second part is devoted to estimation of the inverse autocorrelation function in the framework of nonlinear time series. Undes some regularity conditions, we study the asymptotic properties of empirical inverse autocorrelations for stationary and strongly mixing process. We establish the consistency and the asymptotic normality of the estimators. Next, we consider the case of linear process with GARCH errors and obtain means of some examples that the standard formula can be misleading if the generating process is non linear. Finally, we apply our previous results to prove the asymptotic normality of the parameter estimates of weak moving average. Our results are illustrated by Monte Carlo experiments and real data experiences
APA, Harvard, Vancouver, ISO, and other styles
24

Della, Penna Gabriella. "Méthodes perturbatives et numériques pour l'étude des mouvements réguliers et chaotiques avec application à la mécanique céleste." Nice, 2001. http://www.theses.fr/2001NICE5611.

Full text
Abstract:
Cette thèse représente une contribution à l'étude des méthodes analytiques et numériques pour établir le caractère régulier ou chaotique des mouvements dans des systèmes hamiltoniens, des applications symplectiques ou des applications dissipatives. Nous avons utilisé ces méthodes pour des applications à la mécanique céleste, et particulièrement au problème spin--orbite, au problème et à l'étude de la méthode de régularisation de Birkhoff pour le problème restreint de trois corps. Un modèle spin--orbite tenant compte de l'inclinaison du satellite a été introduit, à l'aide d'un système de variables action--angle bien adapté. Une étude de la stabilité du modèle du point de vue analytique (avec la théorie KAM) et numérique (calculant des applications de Poincaré) a été faite. Lorsqu'on veut comprendre le mécanisme de capture en résonance il faut ajouter une dissipation au modèle conservatif, ayant une forme adéquate. A ce propos, un modèle dissipatif a été mis au point, et les effets de la dissipation ont été analysés sur un modèle dérivé de l'application standard. Nous avons rendu opérationnel un résultat théorique de Lyapunov, Siegel et Moser concernant la construction de familles d'orbites périodiques, ainsi que la détermination de la taille de leur domaine d'existence, dans le voisinage des points d'équilibre stable pour un système hamiltonien. Une application au problème a été considérée. J. M. Greene a introduit une méthode pour déterminer le seuil de transition stochastique pour des courbes invariantes. Nous avons développé une méthode alternative à la méthode de J. M. Greene, basée sur l'utilisation des {\it Fast Lyapunov Indicators} après une analyse en fréquence préliminaire. Une partie de cette thèse a été consacrée à l'étude de méthodes numériques pour la détection du caractère déterministe ou stochastique de séries temporelles discrétisées.
APA, Harvard, Vancouver, ISO, and other styles
25

Bahri, El Mostafa. "L'identification automatique des processus ARIMA : une approche par système expert." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX32043.

Full text
Abstract:
L'approche arima de prevision des series chronologiques, mise au point en 1970 par box et jenkins, s'est averee tres pertinente dans sa philosophie et tres satisfaisante au niveau des resultats dans la pratique, et ce en comparaison avec d'autres methodes du meme propos. Cependant, l'indentification des processus arima reste une tache hors de portee des non-specialistes en la matiere, a cause notamment de sa nature heuristique. Ceci explique pourquoi cette approche n'a pas suffisamment penetre les milieux des utilisateurs des methodes de previsions. Aussi, pour cette meme raison, l'automatisation de cette etape centrale de la methodologie arima est inefficace via la voie purement procedurale de l'informatique. Notre propos est que l'automatisation par la technique des systemes experts est mieux adaptee. La premiere partie de ce travail se propose d'argumenter cette these, a la lumiere des particularites du probleme de l'indentification des processus arima, et a travers la litterature la plus recente consacree a cette question. Nous avons aussi entrepris des comparaisons empiriques dans cette direction. Dans la seconde partie, nous avons montre l'interet de l'approche par systeme expert. Puis concu un prototype de systeme expert d'identification des processus arima. Nous avons realise ce prototype, en langage a base de regles vax-ops5, au sein du groupe d'intelligence artificielle de digital equipement (sophia-antipolis). Enfin, a travers cette application, intervient une evaluation de la methodologie des systemes experts dans le domaine du traitement automatique des series chronologiques, et des orien
Arima approach is an important contribution in fore casting economic time series but indentifying such processes is a crucial task, both manualy ans automatically we suggest that the expert system approach is an adequate solution for this problem. We have written a prototype in poss for this purpose and we propose neural network as complementary technique for automatic identification of series procecesses
APA, Harvard, Vancouver, ISO, and other styles
26

Gautier, Antony. "Modèles de séries temporelles à coefficients dépendants du temps." Lille 3, 2004. http://www.theses.fr/2004LIL30034.

Full text
Abstract:
Dans cette thèse, nous étudions les propriétés probalistes et/ou statistiques de modèles linéaires ou non-linéaires de séries temporelles à coefficients dépendant du temps. La première partie de la thèse est dévolue à la statistique des modèles ARMA dont les coefficients varient en fonction d'événements récurrents, mais non-périodiques. Les propriétés asymptotiques (convergence forte et normalité) des estimateurs des moindres carrés sont établies. Le cas particulier des modèles ARMA à changement de régime Markoviens est ensuite considéré. La seconde partie de la thèse étudie l'influence asymptotique de la correction par la moyenne des séries temporelles sur l'estimation par moindres carrés de modèles ARMA périodiques. Dans la dernière partie de la thèse, nous étendons nos recherches à des modèles bilinéaires à coefficients périodiques. Les résultats obtenus sont régulièrement illustrés à distance finie à partir d'expériences de Monte Carlo
APA, Harvard, Vancouver, ISO, and other styles
27

Guégan, Dominique. "Modèles bilinéaires et polynomiaux de séries chronologiques : étude probabiliste et analyse statistique." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00330671.

Full text
Abstract:
Cette thèse présente l'étude probabiliste et statistique approfondie des modèles bilinéaires à temps discret. On étudie ces modèles à partir de différentes approches (discrète, markovienne). On trouve tout d'abord une présentation globale des modèles non linéaires, la description des outils probabilistes utiles à l'étude des modèles non linéaires, ainsi qu'une présentation des modèles bilinéaires à partir de simulations permettant de mettre en évidence leurs principales caractéristiques trajectorielles. L'approche markovienne s'avère beaucoup plus puissante que l'approche directe. Nous démontrons l'existence d'une représentation markovienne sous la forme d'un modèle polynomial affine en l'état; nous donnons des critères pour la minimalité et l'inversibilité de ces représentations. Sur le plan statistique, nous avons montre la convergence presque sure des estimateurs des moindres carrés. D'autres estimateurs sont aussi envisagés permettant de mettre en place des tests d'adéquation de modèles. Certains travaux de l'auteur (huit articles) ont été publiés et sont regroupés dans l'annexe.
APA, Harvard, Vancouver, ISO, and other styles
28

Nouira, Leïla. "Mémoire longue non stationnaire : estimations et applications." Aix-Marseille 2, 2006. http://www.theses.fr/2006AIX24006.

Full text
Abstract:
Cette thèse s’intéresse à l’étude de mémoire longue dans les cas stationnaire et non stationnaire ainsi que de la cointégration fractionnaire. Après avoir défini les deux modèles les plus connus de mémoire longue : le bruit gaussien fractionnaire et le processus FARIMA (p, d, q), nous avons examiné les méthodes d’estimation du paramètre de mémoire longue. En effet, nous avons exploré, par des simulations, les propriétés (consistance et normalité asymptotique) de certains estimateurs et avons comparé la performance de quelques méthodes d’estimation dans le cas stationnaire (c’est-à-dire que -1/2 < d < 1/2). Or, de nombreuses séries économiques semblent être non stationnaires (c’est-à-dire que d ≥ 1/2), ce qui nous a amené à étudier ce cas. En effet, pour estimer le paramètre de mémoire longue, nous avons utilisé la procédure d’effilage des données proposée par Velasco (1999a). Vu que la forme de cette procédure dépend de son ordre p’, nous avons étudié, par des simulations, l’effet de cet ordre sur les propriétés asymptotiques de certains estimateurs semiparamétriques. Nous avons aussi montré que le choix optimal est p’ = [d + 1/2] +1. Le document s’est achevé sur l’étude de la notion de cointégration fractionnaire. Une application sur l’économie tunisienne a été faite afin de chercher une relation de longue période entre le taux de change réel effectif tunisien et ses fondamentaux
This thesis is interested in studying the long memory in both stationary and nonstationary cases as well as the fractional cointegration. After the definition of the two most known models of long memory : the fractional Gaussian noise and the ARFIMA (p, d, q), we examined the estimation methods of the long memory parameter. Indeed, we explored, by simulations, the asymptotic properties (consistency and asymptotic normality) of some estimators and compared the performance of some estimation methods in the stationary case (i. E. -1/2 < d < 1/2). However, many economic time series exhibit a nonstationary behaviour (i. E. D ≥ 1/2), which motivated us to study this case. Indeed, to estimate the long memory parameter, we used the data tapering procedure suggested by Velasco (1999a). Since, the shape of this tapering depends on its order p’, we studied, by simulations, the effect of this order on the asymptotic properties of some semiparametric estimators. We also showed that the optimal choice is p’ = [d + 1/2] +1. The thesis was finally taken up the fractional cointegration. An empirical application on the Tunisian economy was been done in order to find a long-term relation between the effective real exchange rate and its fundamentals
APA, Harvard, Vancouver, ISO, and other styles
29

Ltaifa, Marwa. "Tests optimaux pour détecter les signaux faibles dans les séries chronologiques." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0189.

Full text
Abstract:
Cette thèse s'intéresse à la construction de tests localement asymptotiquement optimaux pour détecter les ruptures dans la moyenne des modèles Conditional Heteroskedastic AutoRegressiveNonlinear (CHARN) décrits par l'équation stochastique suivante : begin{equation} X_t=T(Z_{t-1})+gamma^{top}omega(t)+V(Z_{t-1})varepsilon_t,quad tinzz, end{equation} où «gamma=(gamma_1,ldots,gamma_k,gamma_{k+1})^{top} inrr^{k+1}» et pour «t_1,ldots,t_k,» «1< t_10,forall xinrr^p» et «n» le nombre des observations. Le modèle (1) contient une large classe de modèles de séries chronologiques comme les modèles AR, MA, ARMA, ARIMA, ARCH etc. L'attention est portée aux petites ruptures. Celle difficilement observables à l'œil nu, contrairement à celles considérées dans la littérature. Une telle étude ne semble pas avoir déjà été réalisée dans le contexte des séries chronologiques. Le test étudié est celui du rapport de vraisemblance, pour tester ««H_0:gamma=gamma_0text{ contre } H^{(n)}_beta:gamma=gamma_0+dfrac{beta}{sqrt{n}}=gamma_{n},quad n>1,»« pour «gamma_0inrr^{k+1}» et «betainrr^{k+1}» caractérisant respectivement la situation où il n'y a pas de rupture, et celle où il y a au moins une rupture à trouver. Ce document est organisé comme suit : Le chapitre 1 constitue l'introduction générale de la thèse. Y sont rappelés quelques notions et outils fondamentaux utiles. Le chapitre 2 fait l'état de l'art sur la détection des ruptures dans les séries chronologiques. Ce chapitre est divisé en deux parties. La première concerne l'estimation des ruptures et leurs localisations. La deuxième concerne les tests d'existence de points de ruptures. Le chapitre 3 traite le cas où les fonctions «T» et «V» sont connues et lorsqu'elles sont connues mais dépendant de paramètres inconnus. Dans ce dernier cas, la situation où le paramètre «gamma_0» est connu et celle où il est inconnu sont étudiées. Dans le cas où il est inconnu, il est estimé par la méthode du maximum de vraisemblance. L' du test étude est basée essentiellement sur la propriété locale asymptotique (LAN) énoncée par exemple dans cite{droesbeke1996}. Le chapitre 4 est une généralisation du chapitre 3. Ici, l'amplitude du saut est quelconque et inconnue. Il s'agit donc de tester ««H_0:gamma=gamma_0text{ contre }H^{(n)}=displaystylebigcup_{betainrr^{k+1}}^{}{ H^{(n)}_beta}.»« Un test de type Cramer-Von-Mises est construit. Les techniques de cite{ngatchou2009} sont utilisées pour trouver la loi asymptotique du test sous l'hypothèse alternative. Le chapitre 5 présente des résultats numériques faites en utilisant le logiciel R. Les résultats obtenus pour des données simulées sont d'abord présentés et commentés. Viennent ensuite ceux des applications à plusieurs jeux de données réelles. Le chapitre 6 conclut la thèse et dégage les perspectives pour la suite
This thesis focuses on the construction of locally asymptotically optimal tests to detect breaks in the mean of Conditional Heteroskedastic AutoRegressive Nonlinear (CHARN) models described by the following stochastic equation: begin{equation} X_t=T(Z_{t-1})+gamma^{top}omega(t)+V(Z_{t-1})varepsilon_t,quad tinzz, end{equation} where «gamma=(gamma_1,ldots,gamma_k,gamma_{k+1})^{top} inrr^{k+1}» and for «t_1,ldots,t_k,» «1< t_10,forall xinrr^p» and «n» the number of observations. The model (2) contains a large class of time series models like AR, MA, ARMA, ARIMA, ARCH etc. Attention is paid to small breaks. Those which are difficult to observe with the naked eye, unlike those considered in the literature. Such a study does not appear to have already been carried out in the context of time series. The test studied is the likelihood ratio test to test ««H_0:gamma=gamma_0text{ against } H^{(n)}_beta:gamma=gamma_0+dfrac{beta}{sqrt{n}}=gamma_{n},quad n>1,»« for «gamma_0inrr^{k+1}» and «betainrr^{k+1}» characterizing respectively the situation where there is no break, and that where there is at least one break to be found. This document is organized as follows: Chapter 1 constitutes the general introduction to the thesis. There, some useful basic concepts and tools are recalled. Chapter 2 reviews the state of the art on the detection of breaks in time series. This chapter is divided into two parts. The first concerns the estimation of breaks and their locations. The second concerns the tests for the existence of break-points. Chapter 3 deals with the case where the functions « T « and « V « are known, and when they are known but depend on unknown parameters. In the latter case, the situation where the parameter « gamma_0 « is known and the one where it is unknown are studied. When it is unknown, it is estimated by the maximum likelihood method. The study of the test is based essentially on the asymptotic local property (LAN) stated for example in cite{droesbeke1996}. Chapter 4 is a generalization of chapter 3. Here, the magnitude of the jump is arbitrary and unknown. Therefore, one has to test ««H_0:gamma=gamma_0text{ against }H^{(n)}=displaystylebigcup_{betainrr^{k+1}}^{}{ H^{(n)}_beta}.»« A Cramer-Von-Mises type test is constructed. The techniques of cite{ngatchou2009} are used to find the asymptotic distribution of the test under the alternative hypothesis. Chapter 5 presents numerical results obtained using software R. The results obtained for simulated data are first presented and commented. This is followed by those for applications with several real datasets. Chapter 6 concludes the thesis and sets out some prospects
APA, Harvard, Vancouver, ISO, and other styles
30

Cherkaoui, Abdelhai. "Modélisation des séries temporelles par des méthodes de décomposition et applications." Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX24011.

Full text
Abstract:
Notre travail a porte sur l'etude des methodes de decomposition des series temporelles. Cet etude a ete realise en quatre etapes. Dans un premier temps nous avons analyse les methodes classiques de decomposition par la regression lineaire et le lissage par les moyennes mobiles. Dans un second temps, nous avons etudie la methode de decomposition d'un modele arima. Dans un troisieme temps, nous avons donne une methode fondee sur l'algorithme recursif de kalman. Dans un quatrieme temps nous avons illustre ces resultats theoriques et nous avons tente une comparaison entre la methode de box-jenkins et la methode de lissage par les moyennes mobiles
Our work has centered on the study of decomposition methods time series. This was done in four stages. First, we analyse classical methods of linear regression and of smoothing by moving averages. Secondly, we examine the decomposition method of an arima model. In the third stage, we present a method based on the recurrent algorithm of kalman. In the fourth stage, we illustrate our theoretical results and attempt to compare the box-jenkins method and the method of smoothing by moving average
APA, Harvard, Vancouver, ISO, and other styles
31

Kouamo, Olaf. "Analyse des séries chronologiques à mémoire longue dans le domaine des ondelettes." Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00565656.

Full text
Abstract:
Le thème de nos travaux porte sur la statistique des processus à longue mémoire, pour lesquels nous proposons et validons des outils statistiques issus de l'analyse par ondelettes. Ces dernières années ces méthodes pour estimer le paramètre de mémoire sont devenues très populaires. Cependant, les résultats théoriques validant rigoureusement les estimateurs pour les modèles semi paramétriques classiques à longue mémoire sont récents (cf. Les articles de E. Moulines, F. Roueff et M. Taqqu depuis 2007). Les résultats que nous proposons dans cette thèse s'inscrivent directement dans le prolongement de ces travaux. Nous avons proposé une procédure de test pour détecter des ruptures sur la densité spectrale généralisée. Dans le domaine des ondelettes, le test devient un test de ruptures sur la variance des coefficients d'ondelettes. Nous avons ensuite développé un algorithme de calcul rapide de la matrice de covariance des coefficients d'ondelettes. Deux applications de cet algorithme sont proposées , d'une part pour l'estimation de d et d'autre part pour améliorer le test proposé dans le chapitre précédent. Pour finir, nous avons étudié les estimateurs robustes robustes du paramètre de mémoire d dans le domaine des ondelettes. En se basant sur trois estimateurs de la variance des coefficients d'ondelettes à une échelle. La contribution majeure de ce chapitre est le théorème central limite obtenu pour les trois estimateurs de d dans le cadre des processus gaussiens M(d)
The theme of our work focuses on statistical process long memory, for which we propose and validate tools statistics from the wavelet analysis. In recent years these methods for estimating the memory setting became very popular. However, rigorously validating the theoretical results estimators for semiparametric models classic long memory are new (cf. The articles by E. Moulines, F. Roueff and M. Taqqu since 2007). The results we propose in this thesis are a direct extension of this work. We have proposed a test procedure for detecting changes on the generalized spectral density. In the wavelet domain, the test becomes a test of change in the variance of wavelet coefficients. We then developed an algorithm for fast computation of covariance matrix of wavelet coefficients. Two applications of this algorithm are proposed, first to estimate d and the other part to improve the test proposed in the previous chapter. Finally, we studied the robust estimators of the memory parameter in the wavelet domain, based on three estimators of the variance of wavelet coefficients at scale. The major contribution of this chapter is the central limit theorem obtained for three estimators in the context of Gaussian processes M (d)
APA, Harvard, Vancouver, ISO, and other styles
32

Kouamo, Olaf. "Analyse des séries chronologiques à mémoire longue dans le domaine des ondelettes." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00565656.

Full text
Abstract:
Le thème de nos travaux porte sur la statistique des processus à longue mémoire, pour lesquels nous proposons et validons des outils statistiques issus de l'analyse par ondelettes. Ces dernières années ces méthodes pour estimer le paramètre de mémoire sont devenues très populaires. Cependant, les résultats théoriques validant rigoureusement les estimateurs pour les modèles semi paramétriques classiques à longue mémoire sont récents (cf. les articles de E. Moulines, F. Roueff et M. Taqqu depuis 2007). Les résultats que nous proposons dans cette thèse s'inscrivent directement dans le prolongement de ces travaux. Nous avons proposé une procédure de test pour détecter des ruptures sur la densité spectrale généralisée. Dans le domaine des ondelettes, le test devient un test de ruptures sur la variance des coefficients d'ondelettes. Nous avons ensuite développé un algorithme de calcul rapide de la matrice de covariance des coefficients d'ondelettes. Deux applications de cet algorithme sont proposées , d'une part pour l'estimation de d et d'autre part pour améliorer le test proposé dans le chapitre précédent. Pour finir, nous avons étudié les estimateurs robustes robustes du paramètre de mémoire d dans le domaine des ondelettes. en se basant sur trois estimateurs de la variance des coefficients d'ondelettes à une échelle. La contribution majeure de ce chapitre est le théorème central limite obtenu pour les trois estimateurs de d dans le cadre des processus gaussiens M(d).
APA, Harvard, Vancouver, ISO, and other styles
33

Guercin, François. "Un langage formel pour le traitement des chroniques." Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX10012.

Full text
Abstract:
L objet de cette these est une approche formelle de l etude des chroniques. Cette approche conduit d une part a definir une chronique en fonction de l organisation temporelle d activites complexes telle que l on peut la trouver en psychologie, et d autre part a caracteriser divers traitements staistiques descriptifs en termes de selection et comparaison de sous-chroniques. Cinqoperations formelles suffisent a rendre compte de ces selections sur l ensemble des sous chroniques structure en treillis booleen. Les problemes poses par la construction d une chronique ainsi que l utilisation des operations en fonction des hypotheses que l on cherche a valider, sont largement illustres. Trois traitements sont examines de maniere detaillee. Chacun est replace dans un cadremathematique et nous montrons comment il permet letude de strategies, comprises comme combinaisons sequentielles de procedures a travers differents champs de la psychologie. En particulier, dans le domaine de la revision de texte, on presente comment l utilisation d une distance a permis de mesurer l ecart entre la production d un sujet et une production simulee selon six strategies reposant sur quelques principes fonctionnels. Ainsi notre travail de formalisation a permis de developper de nouveaux outils d analyse statisique descriptive, adaptes aux exigences formelles des donnees et aux exigences theoriques d une optique de la psychologie qui privilegie l analyse de l activite cognitive en termes de modeles de processus de traitement mis en oeuvre par un sujet pour effectuer une tache complexe
This thesis presents a formal approach to the study of time series. This approach led us to define time series as a function of the temporal organization of complex activities found in psychology,and then to characterize some descriptive statistical processing in terms of the selection and comparison of sub-series. Five formal operations suffice to account for selection on the set of the sub-series, fitted with a boolean lattice structure. Questions about how temporally-coded data might be formatted and compared, and how formal operations might be used in function of formulated psychological hypothesis, are illustrated widely. Three processing are examined closely. Each one is studied in its mathematical frame. Then we show how it allows the studying of strategies understood like sequential combination of procedures in differend fields of thepsychology. In particular, in the field of text revision, an exemple is given o how the distance betwen time series can be used to measure the difference beetween a subject's production and simulated production in application of one of six strategies based on a few functional principles. Thus our formalisation has allowed to develop new tools for descriptive statistical processing. These tools are suited to the formals requirements of data and to theoreticals requirements of cognitive psychology
APA, Harvard, Vancouver, ISO, and other styles
34

Honobé, Hoang Erik. "Évaluation stratégique d'entreprises par méthodes neuronales." Paris 2, 2000. http://www.theses.fr/2000PA020104.

Full text
Abstract:
Dans cette recherche, on s'interesse aux applications possibles de nouvelles techniques informatiques a l'evaluation strategique d'entreprise. On constate que les reseaux de neurones representent un domaine particulierement prometteur en analyse multicritere et en prevision de series chronologiques. On examine alors la question suivante : dans quelle mesure peut-on explorer et utiliser au profit de l'entreprise ces nouvelles techniques issues des recents progres realises en informatique? dans un premier temps, on presente une nouvelle preuve geometrique permettant de reformuler certaines proprietes neuronales de facon plus general. On presente alors un nouveau modele neuronal applique a la prevision de taux de change, et on constate des resultats interssants, tant sur la performance du modele que sur ses capacites d'apprentissage et ses potentiels en analyse des decisions en gestion d'entreprise. Les resultats obtenu confirment l'interet de ces nouvelles approches en management, ceci principalement du aux caracteristiques propres des methodes neuronales qui semblent offrir plus de souplesse que nombre de facons habituelles de proceder.
APA, Harvard, Vancouver, ISO, and other styles
35

Assaad, Mohammad. "Un nouvel algorithme de boosting pour les réseaux de neurones récurrents : application au traitement des données sequentielles." Tours, 2006. http://www.theses.fr/2006TOUR4024.

Full text
Abstract:
Les travaux de cette thèse concernent la proposition d'un nouvel algorithme de boosting dédié au problème de l'apprentissage des dépendances temporelles pour la prévision de séries temporelles, en utilisant comme régresseurs des réseaux de neurones récurrents. Cet algorithme se base sur la méthode du boosting : il permet de concentrer l'apprentissage sur les exemples difficiles mais, à la différence de l'algorithme d'origine, en prenant en compte tous les exemples disponibles. Un nouveau paramètre est utilisé pour régler l'influence du boosting. Pour évaluer notre algorithme, des expérimentations systématiques ont été menées sur deux types de problèmes temporels : la prévision à un pas de temps et la prévision multipas. Les résultats obtenus sur plusieurs séries de référence sont parmi les plus performants présentés dans la littérature
The work of this thesis deals with the proposal of a new boosting algorithm dedicated to the problem of learning time-dependencies for the time series prediction, using recurrent neural networks as regressors. This algorithm is based on the boosting algorith and allows concentrating the training on difficult examples. A new parameter is introduced to regulate the influence of boosting. To evaluate our algorithm, systematic experiments were carried out on two types of problems of time series prediction : single-step ahead predicton and multi-step ahead prediction. The results obtained from several series of reference are close to the best results reported in the literature
APA, Harvard, Vancouver, ISO, and other styles
36

Degerine, Serge. "Fonction d'autocorrélation partielle et estimation autorégressive dans le domaine temporel." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00243761.

Full text
Abstract:
Etude, dans un cadre probabiliste et statistique, de la fonction d'autocorrelation partielle d'un processus scalaire reel, a temps discret, stationnaire au second ordre et centre. Nous nous attachons, dans une premiere partie, a decrire de facon tres complete les differents aspects de cette fonction dans l'investigation, sur le plan probabiliste, de la structure du processus. Notre presentation est faite essentiellement dans le domaine temporel. Cependant le choix d'un langage geometrique, dans l'espace de hilbert engendre par les composantes du processus, facilite le lien avec le domaine spectral. Nous soulignons le role privilegie autoregressif. Nous considerons aussi le cas des processus vectoriels pour lesquels nous proposons la notion de fonction d'autocorrelation partielle canonique. La 2eme partie est consacree aux apports de la fonction d'autocorrelation partielle dans l'estimation de la structure temporelle du processus. La necessite de recourir a d'autres techniques que celle, usuelle, utilisant les autocorrelations empiriques se rencontre lorsque la serie observee est courte, meme en presence d'un echantillon, ou encore lorsqu'elle provient d'un modele proche de la singularite. Nous insistons sur la methode du maximum de vraisemblance, pour laquelle nous precisons les conditions d'utilisation (existence, unicite. . . ) et nous proposons, dans le cas d'un echantillon de series courtes, une methode de relaxation pour sa mise en oeuvre. Nous analysons et comparons les differentes methodes d'estimation autoregressive dans le domaine temporel et constatons les bonnes performances de celle basee sur la version empirique des autocorrelaitons partielles que nous proposons.
APA, Harvard, Vancouver, ISO, and other styles
37

Njimi, Hassane. "Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique." Doctoral thesis, Universite Libre de Bruxelles, 2008. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210441.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Goldfarb, Bernard. "Etude structurelle des séries temporelles : les moyens de l'analyse spectrale." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Full text
Abstract:
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
APA, Harvard, Vancouver, ISO, and other styles
39

Renard, Xavier. "Time series representation for classification : a motif-based approach." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066593.

Full text
Abstract:
Nos travaux décrits dans cette thèse portent sur l’apprentissage d’une représentation pour la classification automatique basée sur la découverte de motifs à partir de séries temporelles. L’information pertinente contenue dans une série temporelle peut être encodée temporellement sous forme de tendances, de formes ou de sous-séquences contenant habituellement des distorsions. Des approches ont été développées pour résoudre ces problèmes souvent au prix d’une importante complexité calculatoire. Parmi ces techniques nous pouvons citer les mesures de distance et les représentations de l’information contenue dans les séries temporelles. Nous nous concentrons sur la représentation de l’information contenue dans les séries temporelles. Nous proposons un cadre (framework) pour générer une nouvelle représentation de séries temporelles basée sur la découverte automatique d’ensembles discriminants de sous-séquences. Cette représentation est adaptée à l’utilisation d’algorithmes de classification classiques basés sur des attributs. Le framework proposé transforme un ensemble de séries temporelles en un espace d’attributs (feature space) à partir de sous-séquences énumérées des séries temporelles, de mesures de distance et de fonctions d’agrégation. Un cas particulier de ce framework est la méthode notoire des « shapelets ». L’inconvénient potentiel d’une telle approache est le nombre très important de sous-séquences à énumérer en ce qu’il induit un très grand feature space, accompagné d’une très grande complexité calculatoire. Nous montrons que la plupart des sous-séquences présentes dans un jeu de données composé de séries temporelles sont redondantes. De ce fait, un sous-échantillonnage aléatoire peut être utilisé pour générer un petit sous-ensemble de sous-séquences parmi l’ensemble exhaustif, en préservant l’information nécessaire pour la classification et tout en produisant un feature space de taille compatible avec l’utilisation d’algorithmes d’apprentissage automatique de l’état de l’art avec des temps de calculs raisonnable. On démontre également que le nombre de sous-séquences à tirer n’est pas lié avec le nombre de séries temporelles présent dans l’ensemble d’apprentissage, ce qui garantit le passage à l’échelle de notre approche. La combinaison de cette découverte dans le contexte de notre framework nous permet de profiter de techniques avancées (telles que des méthodes de sélection d’attributs multivariées) pour découvrir une représentation de séries temporelles plus riche, en prenant par exemple en considération les relations entre sous-séquences. Ces résultats théoriques ont été largement testés expérimentalement sur une centaine de jeux de données classiques de la littérature, composés de séries temporelles univariées et multivariées. De plus, nos recherches s’inscrivant dans le cadre d’une convention de recherche industrielle (CIFRE) avec Arcelormittal, nos travaux ont été appliqués à la détection de produits d’acier défectueux à partir des mesures effectuées par les capteurs sur des lignes de production
Our research described in this thesis is about the learning of a motif-based representation from time series to perform automatic classification. Meaningful information in time series can be encoded across time through trends, shapes or subsequences usually with distortions. Approaches have been developed to overcome these issues often paying the price of high computational complexity. Among these techniques, it is worth pointing out distance measures and time series representations. We focus on the representation of the information contained in the time series. We propose a framework to generate a new time series representation to perform classical feature-based classification based on the discovery of discriminant sets of time series subsequences (motifs). This framework proposes to transform a set of time series into a feature space, using subsequences enumerated from the time series, distance measures and aggregation functions. One particular instance of this framework is the well-known shapelet approach. The potential drawback of such an approach is the large number of subsequences to enumerate, inducing a very large feature space and a very high computational complexity. We show that most subsequences in a time series dataset are redundant. Therefore, a random sampling can be used to generate a very small fraction of the exhaustive set of subsequences, preserving the necessary information for classification and thus generating a much smaller feature space compatible with common machine learning algorithms with tractable computations. We also demonstrate that the number of subsequences to draw is not linked to the number of instances in the training set, which guarantees the scalability of the approach. The combination of the latter in the context of our framework enables us to take advantage of advanced techniques (such as multivariate feature selection techniques) to discover richer motif-based time series representations for classification, for example by taking into account the relationships between the subsequences. These theoretical results have been extensively tested on more than one hundred classical benchmarks of the literature with univariate and multivariate time series. Moreover, since this research has been conducted in the context of an industrial research agreement (CIFRE) with Arcelormittal, our work has been applied to the detection of defective steel products based on production line's sensor measurements
APA, Harvard, Vancouver, ISO, and other styles
40

Gueguen, Lionel. "Extraction d'information et compression conjointes des séries temporelles d'images satellitaires." Paris, ENST, 2007. http://www.theses.fr/2007ENST0025.

Full text
Abstract:
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d’Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires
Nowadays, new data which contain interesting information can be produced : the Satellite Image Time Series which are observations of Earth’s surface evolution. These series constitute huge data volume and contain complex types of information. For example, numerous spatio-temporal events, such as harvest or urban area expansion, can be observed in these series and serve for remote surveillance. In this framework, this thesis deals with the information extraction from Satellite Image Time Series automatically in order to help spatio-temporal events comprehension and the compression in order to reduce storing space. Thus, this work aims to provide methodologies which extract information and compress jointly these series. This joint processing provides a compact representation which contains an index of the informational content. First, the concept of joint extraction and compression is described where the information extraction is grasped as a lossy compression of the information. Secondly, two methodologies are developed based on the previous concept. The first one provides an informational content index based on the Information Bottleneck principle. The second one provides a code or a compact representation which integrates an informational content index. Finally, both methodologies are validated and compared with synthetic data, then are put into practice successfully with Satellite Image Time Series
APA, Harvard, Vancouver, ISO, and other styles
41

Duchesne, Pierre. "Quelques contributions en théorie de l'échantillonnage et dans l'analyse des séries chronologiques multidimensionnelles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ52102.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Boiron, Marie-Aurélie. "Modélisation phénoménologique de systèmes complexes non-linéaires à partir de séries chronologiques scalaires." Lyon 1, 2005. http://www.theses.fr/2005LYO10044.

Full text
Abstract:
Ces travaux de thèse visent à développer une méthode originale de modélisation du comportement des systèmes complexes. L'objectif est de construire un modèle phénoménologique d'évolution d'un système en régime chaotique, sous la forme d'équations différentielles ordinaires, à partir de la donnée d'une variable scalaire régulièrement échantillonnée. La technique de modélisation mise en place s'appuie sur l'utilisation d'une bibliothèque exhaustive de modèles, bibliothèque construite mathématiquement de façon formelle et rigoureuse. La méthode théorique d'identification a été intégrée au sein d'une méthode numérique générale pour laquelle la série chronologique analysée est la seule donnée d'entrée et qui permet de construire des modèles d'approximation du comportement dynamique du système étudié. Elle se décompose en trois modules. Dans un premier temps, la série scalaire est débruitée et ses séries dérivées, requises pour la reconstruction, sont calculées. Ensuite, la construction des équations est effectuée à l'aide de la bibliothèque de modèles ce qui permet d'identifier un ensemble de systèmes différentiels, dont la compatibilité avec la série chronologique initiale est ensuite vérifiée. Dans le cas positif, les systèmes reconstruits sont validés comme modèles phénoménologiques du système complexe étudié. La méthode de modélisation développée a été validée en traitant des séries scalaires générées par des systèmes différentiels numériques. L'analyse de séries numériques non bruitées a tout d'abord permis de vérifier les performances de la méthode mise en place par comparaison directe des équations identifiées avec les équations originales. La modélisation à partir de séries numériques bruitées a ensuite montré que la dynamique inscrite dans la série scalaire initiale était retrouvée au sein du système reconstruit. Enfin, nous avons appliqué cette technique de modélisation globale à des séries expérimentales de deux types. Les premières sont des tensions enregistrées en régime chaotique sur des circuits électroniques réalisés dans le cadre de cette thèse ; quant aux secondes, il s'agit de l'intensité générée par une réaction d'électrolyse et fournie par une équipe américaine. Dans tous les cas, des modèles phénoménologiques ont été établis et validés
APA, Harvard, Vancouver, ISO, and other styles
43

Kodia, Banzouzi Bernédy Nel Messie. "Mesures de dépendance pour une modélisation alpha-stable : application aux séries chronologiques stables." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1468/.

Full text
Abstract:
Dans cette thèse, nous apportons une contribution à l'étude de la dépendance entre des variables aléatoires à queues lourdes, et en particulier symétriques a-stables, en introduisant un nouveau coefficient de dépendance : le coefficient de covariation symétrique signé. Nous utilisons ce coefficient ainsi que le paramètre d'association généralisé introduit par Paulauskas (1976), dans le contexte des séries chronologiques, à des fins d'identification des processus MA et AR stables. Dans le premier chapitre, nous donnons une vue d'ensemble des lois a-stables. Nous rappelons les concepts fondamentaux, quelques unes des représentations des variables aléatoires associées, tant dans le cas univarié que multivarié. La mesure spectrale porte toute l'information sur la structure de dépendance d'un vecteur aléatoire a-stable. Sa forme est donnée pour deux sous-familles de lois : les vecteurs aléatoires sous-gaussiens et les combinaisons linéaires de variables aléatoires indépendantes. La covariation et la codifférence sont présentées. Nous introduisons le coefficient de covariation symétrique signé dans le deuxième chapitre. Ce coefficient possède la plupart des propriétés du coefficient de corrélation de Pearson. Dans le cas des vecteurs aléatoires sous-gaussiens, il coïncide avec le coefficient d'association généralisé. La consistance des estimateurs proposés pour ces deux quantités est démontrée. Les résultats d'une étude sur les comportements asymptotiques des estimateurs sont présentés. Dans le troisième chapitre, nous introduisons les notions d'autocovariation symétrique signée et d'auto-association généralisée pour des processus linéaires stationnaires. Nous utilisons ces coefficients pour l'identification de l'ordre d'un processus MA stable. Nous proposons une statistique jouant le rôle d'un coefficient d'autocorrélation partielle. Nous comparons cette statistique avec les statistiques quadratiques asymptotiquement invariantes fondées sur les rangs et utilisées par Garel et Hallin (1999) pour l'identification des AR stables. Une étude des résultats obtenus est réalisée à partir de simulations
This thesis is a contribution to the study of the dependence between heavy tails random variables, and especially symmetric a-stable random variables, by introducing a new coefficient of dependence: the signed symmetric covariation coefficient. We use this coefficient and the generalized association parameter introduced by Paulauskas (1976), in the context of time series, for Identification of MA and AR stable processes. In the first chapter, we give an overview of a-stable laws. We recall the basic concepts, some representations of associated random variables in both the univariate and multivariate cases. The spectral measure carries all the information about the dependence structure of an a-stable random vector. Its form is given for two sub-families of laws : the sub-Gaussian random vectors and linear combinations of independent random variables. Covariation and codifference are presented. We introduce the signed symmetric covariation coefficient in the second chapter. This coefficient has most of the properties of the correlation coefficient of Pearson. In the case of sub-Gaussian random vectors, it coincides with the generalized association parameter. The consistency of the proposed estimators for these quantities is demonstrated. The results of a study on the asymptotic behavior of estimators are presented. In the third chapter, we introduce the concepts of signed symmetric autocovariation and generalized auto-association for linear stationary processes. We use these coefficients for identifying the order of a MA stable process. We propose a statistic acting as a partial autocorrelation coefficient. We compare this statistic with quadratic statistics asymptotically invariant based on the ranks and used by Garel and Hallin (1999) for the identification of AR stables. A study of the results is performed using simulations
APA, Harvard, Vancouver, ISO, and other styles
44

Barkaoui, Ahmed. "La désagrégation temporelle des séries d'observations économiques." Paris 10, 1995. http://www.theses.fr/1995PA100055.

Full text
Abstract:
Cette thèse traite le problème rencontre en modélisation économétrique lorsque les séries d'observations sur certaines variables ne sont disponibles qu'en valeurs agrégées dans le temps. Les solutions pratiques consistent à estimer les valeurs non observées en respectant la comptabilité avec les observations agrégées (procédures de désagrégation temporelle). Cette estimation peut se faire à partir des observations agrèges uniquement ou en utilisant, quand elles sont disponibles, des indicateurs économiques observées dans la bonne temporalité. L'étude des principales procédures utilisées dans les organismes de statistique ou dans les logiciels d'économétrie a permis de proposer -pour un problème donne- un critère de sélection base sur l'information connue a priori sur les séries et sur des tests statistiques. Le problème de la désagrégation temporelle a été étendu au cas d'un vecteur de variables lorsque leur somme est observée en données désagrégées. Deux applications ont été effectuées : l'une sur la construction de séries trimestrielles de la fbcf productif par branche d'activité, et l'autre sur l'estimation du PIB marchand mensuel. Si l'un considère que la série désagrégée peut être générée à partir d'un modèle dynamique quelconque complètement spécifié, de nouvelles procédures permettant de résoudre le problème en utilisant la représentation dans l'espace des états et les techniques du filtre e kalman et du lissage
This thesis treats the problem encountered in econometric modeling when temporal observations on certain variables are available only in a temporally aggregated fora. The practical solution consists of estimating disaggregated series which are consistent with the observed data (temporal disaggregation procedures). This estimation can be done only by aggregated series or by using some related series -if available- observed in the suit time periods. The analysis of the principal procedures used in statistic organisms or in econometric software’s, has allowed to propose -for a given problem- a criterion of selection based on a priori known on time series and on statistical tests. The problem of temporal disaggregation was extended to the case of a vector of variables when the sum of the latters is observed in disaggregated data. Two applications were performed: the first was performed on the construction of the quarterly series of productive investment (fbcf) by activity branch. The second on the estimation of monthly merchant gdp. If we assume that the disaggregated series can be generated by whatever completely specified dynamic model, new methods can resolve the problem using the states space representation and the kalean filter and smoothing technics
APA, Harvard, Vancouver, ISO, and other styles
45

Bates, Samuel. "Effectivité des canaux de transmission de la politique monétaire." Antilles-Guyane, 2006. http://merlin.u-picardie.fr/login?url=http://u-picardie.cyberlibris.fr/book/10195420.

Full text
Abstract:
Si les canaux théoriques de transmission de la politique monétaire vers la sphère réelle sont bien identifiés, des incertitudes empiriques sur leur intensité persistent. L'objectif est alors de proposer un nouveau protocole de mesure de l'effectivité macroéconomique des canaux de transmission. Il s'articul autour de la création d'un coefficient d'intensité causale applicable quelles qu soient les séries d'analyse. Il offre la possibilité de hiérarchiser l'importanc des canaux de transmission sur le court et le long terme. Il en découle une identification des déterminants de l'évolution des effets de la politique monétaire sur la sphère réelle
If the theoretical channels of monetary policy transmission to the real sphere are weIl defined, empirical doubts concerning their intensity remain. Thus, the aim is to suggest a new procedure to measure the transmission channels macroeconomic effectiveness. It is based on the creation of a causal intensity coefficient useful whatever the series of interest. It offers the ability to classifyat short and long term the transmission mechanisms intensity according to a hierarchical system. The identification of the determining factors in the change of the monetary policy effects on the real sphere is ensued
APA, Harvard, Vancouver, ISO, and other styles
46

Ferrara, Laurent. "Processus longue mémoire généralisés : estimation, prévision et applications." Paris 13, 2000. http://www.theses.fr/2000PA132033.

Full text
Abstract:
On s'intéresse à une certaine classe de modèles paramétriques de série chronologique : les processus longue mémoire généralisés, introduits dans la littérature statistique au début des années 1990. Ces processus longue mémoire généralisés prennent en compte simultanément dans la modélisation de la série, une dépendance de long terme et une composante cyclique périodique persistante. Ce type de phénomène est fréquent dans de nombreux champs d'application des statistiques, tels que l'économie, la finance, l'environnement ou les transports publics. Nous avons proposé une méthode d'estimation simultanée par pseudo-maximum de vraisemblance de l'ensemble des paramètres du modèle, et une méthode semiparamétrique d'estimation des paramètres de longue mémoire. Nous avons montré la consistance de chacun de ces estimateurs et nous avons donné leur distribution limite, les résultats étant validés par des simulations de Monte Carlo. Nous avons également comparé les performances de chacun de ces estimateurs sur des données réelles. En ce qui concerne la prévision, nous avons fourni les expressions analytiques du prédicteur des moindres carrés et de son intervalle de confiance. Nous avons comparé sur des données réelles les performances en prévision des processus longue mémoire généralisés et celles d'autres processus à courte et longue mémoire.
APA, Harvard, Vancouver, ISO, and other styles
47

Pollet, Arnaud. "Combinaison des techniques de géodésie spatiale : contributions aux réalisations des systèmes de référence et à la détermination de la rotation de la Terre." Observatoire de Paris (1667-....), 2011. https://hal.science/tel-02094987.

Full text
Abstract:
Les travaux de cette thèse portent sur les combinaisons d'observations obtenues par les techniques de géodésie spatiale DORIS, GPS, SLR et VLBI. Cette approche de combinaison au niveau des observations fait actuellement l'objet de différentes expériences, notamment dans le cadre du groupe de travail COL (Combination at the Observation Level) de l'IERS. Afin d'obtenir les meilleurs résultats possibles, la définition d'un repère terrestre combiné homogène est nécessaire. Je me suis donc attaché ici à obtenir la meilleure réalisation possible du système de référence terrestre. Dans ce but, différentes approches ont été testées. Un nouveau modèle de combinaison a été développé, qui permet l'obtention d'un repère terrestre homogène. L'apport des rattachements locaux entre instruments co-localisés et leur impact sur l'homogénéité des repères combinés hebdomadaires ont également été analysés. Pour cela, j'ai adapté une méthode de traitement des données GPS par sous-réseaux afin de disposer d'un réseau GPS dense et d'un grand nombre de stations co-localisées. Pour renforcer les liens entre les techniques, l'utilisation de délais troposphériques zénithaux communs et de liens spatiaux via des satellites multi-techniques a été étudié et j'ai démontré leur pertinence. Enfin, une telle combinaison a été réalisée sur l'année 2005. Ce travail a ainsi permis d'obtenir des séries temporelles d'EOP et de positions de stations bénéficiant de l'homogénéité des traitements réalisés et de la meilleure résolution temporelle (notamment en ce qui concerne les EOP) et exactitude de chacune des quatre techniques utilisées dans la combinaison
This PhD Thesis deals with the combinations of observations provided by the space geodetic techniques DORIS, GPS, SLR, and VLBI. These combinations are currently under investigation, especially in the framework of the IERS working group COL (Combination at the Observation Level). In order to obtain the best possible results with this approach, a homogeneous combined terrestrial frame is needed. Effort has also been made here to obtain the best possible realization of the terrestrial reference system. To achieve this goal, I have tested several approaches of combinations at the observation level. A new model of combination is proposed, which allows us to obtain a homogeneous frame. The contribution of the local ties between co-located stations and their impact regarding the homogeneity of the weekly combined frames are analysed too. To do that, I have adapted a GPS data processing by sub-networks in order to have a dense GPS network and a large number of co-located stations. To strengthen the links between the techniques, the uses of common zenithal tropospheric delays and spatial links via multi-technique satellites, are studied and I have proved their relevance. Finally, a combination at the observation level is performed for the year 2005. This work has also allowed to obtain EOP and station positions time series which take advantage of the processing consistency and of the best qualities, regarding the temporal resolution and the accuracy, of each technique used in the combination
APA, Harvard, Vancouver, ISO, and other styles
48

Bac, Catherine. "Saisonnalité et non stationnarité : une analyse en termes de séries temporelles avec applications à la boucle prix salaire et à la dynamique des stocks." Paris 1, 1994. http://www.theses.fr/1994PA010039.

Full text
Abstract:
Cette thèse concerne léetude des problèmes posé par la saisonnalite du point de vue de l'analyse statistique des séies temporelles et de la modelisation économique et économetrique. Beaucoup de séries temporelles économiques sont caracterisées par des mouvements saisonniers importants. Dans une première partie, nous avons etudiés les tests de racines unitaires sur des series de la boucle prix salaire americaine ajustées ou non pour les variations saisonnières. Cette application montre certains inconvenients du filtrage ? Puis nous avons étendu les tests de Lee (1900) pour la cointegration saisonnière au cas des séries mensuelles. . . L'application aux variables de stocks et de production pour l'industrie americaine nous a permis de mettre en evidence des relations d'equilibre de long terme pour l'industrie du vêtement. La seconde partie traite des modèles periodiques. Nous avons etudiés les tests de non stationnarité pour une série univariée periodique. Les problèmes d'estimation d'un modèle multivarié periodique sont aussi examinés. L'application aux variables de stock montre que le comportement des stocks est saisonnier. Nous avons alors dans une troisième partie, reexaminé l'hypothèse de lissage de la production, en prenant en compte les mouvements periodiques. Le modèle est estimé par le maximum de vraisemblance a l'aide du filtre de Kalman. Les données ne permettent pas de retenir cette hypothèse. Au total, nous avons pu mettre en evidence les informations apportées par la saisonnalité
This study concerns the analysis of seasonal problems with regard to statistical analysis of time series and to economic as well as econometric modelling. Many economic time series are characterised by large seasonal variations. In the first part, unit root tests are reported. These tests are performed over american wage price series. This application highlight some drawbacks of seasonal filtering. Then lee's test have been extended for the application of seasonal cointegration tothe monthly data case. The application to stocks and productioin variables for american industry enabled to point out long term equilibrium relationships for the textile industry. In a second part, we have study periodic models. Non stationarity test for a univariate serie with periodic structure has been studied. Estimation problems for a periodic structurein a multivariate model are also examined. The application to inventories series exhibits a seasonal behavior. The production smoothing hypothesis has been reexamined in a third part, taking into account seasonal variations. The moldel is estimated with a maximum likelihood criterion, using the dalman filter. However, the data donot validate this hypothesis. Finally, the various aspects examined in this study have contributed to outline the information carried by seasonal movements
APA, Harvard, Vancouver, ISO, and other styles
49

Boné, Romuald. "Réseaux de neurones récurrents pour la prévision de séries temporelles." Tours, 2000. http://www.theses.fr/2000TOUR4003.

Full text
Abstract:
Les réseaux de neurones à propagation avant sont statiques, leurs sorties ne dépendant que des entrées courantes. Pour contourner cette limitation, la technique la plus répandue repose sur l'utilisation de fenêtres temporelles. Ces techniques sont insuffisantes lorsqu'une mémoire relativement profondes est nécessaire ou lorsque la profondeur de celle-ci est inconnue. Les réseaux de neurones récurrents sont capables de modéliser des dépendances temporelles de durée quelconque entre les entrées et les sorties désirées associées, en utilisant une mémoire implicite, codée grace aux connexions récurrentes et aux sorties des neurones eux-mêmes. Cependant, en pratique les réseaux récurrents sont associés à des algorithmes d'apprentissage bases sur le calcul du gradient, qui présentent des limitations dans la prise en compte des dépendances à moyen ou long terme. La résolution de ce problème peut passer par l'ajout de connexions contenant des retards. Le choix de la localisation de ces connexions et du nombre de retards nécessaires restent à la charge de l'expérimentateur. Nous proposons une nouvelle approche qui repose sur la définition de critères pour l'ajout sélectif de connexions à délais. Il en résulte des algorithmes constructifs, permettant d'adapter l'architecture du réseau au problème temporel à traiter. Le premier critère propose correspond à la variation de l'erreur lors de l'exploration restreinte des différentes alternatives d'implantation de connexions supplémentaires. L'exploration consiste en un apprentissage limite à quelques itérations. Le deuxième critère repose sur un calcul des corrélations entre des quantités générées à l'intérieur du réseau au cours de l'apprentissage, et correspond à une estimation de la variation des poids des connexions à délais candidates. Des expérimentations systématiques ont été menées sur des problèmes de référence de prévision de séries temporelles. Les résultats obtenus montrent l'intérêt de nos contributions.
APA, Harvard, Vancouver, ISO, and other styles
50

Ben, Taieb Souhaib. "Machine learning strategies for multi-step-ahead time series forecasting." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209234.

Full text
Abstract:
How much electricity is going to be consumed for the next 24 hours? What will be the temperature for the next three days? What will be the number of sales of a certain product for the next few months? Answering these questions often requires forecasting several future observations from a given sequence of historical observations, called a time series.

Historically, time series forecasting has been mainly studied in econometrics and statistics. In the last two decades, machine learning, a field that is concerned with the development of algorithms that can automatically learn from data, has become one of the most active areas of predictive modeling research. This success is largely due to the superior performance of machine learning prediction algorithms in many different applications as diverse as natural language processing, speech recognition and spam detection. However, there has been very little research at the intersection of time series forecasting and machine learning.

The goal of this dissertation is to narrow this gap by addressing the problem of multi-step-ahead time series forecasting from the perspective of machine learning. To that end, we propose a series of forecasting strategies based on machine learning algorithms.

Multi-step-ahead forecasts can be produced recursively by iterating a one-step-ahead model, or directly using a specific model for each horizon. As a first contribution, we conduct an in-depth study to compare recursive and direct forecasts generated with different learning algorithms for different data generating processes. More precisely, we decompose the multi-step mean squared forecast errors into the bias and variance components, and analyze their behavior over the forecast horizon for different time series lengths. The results and observations made in this study then guide us for the development of new forecasting strategies.

In particular, we find that choosing between recursive and direct forecasts is not an easy task since it involves a trade-off between bias and estimation variance that depends on many interacting factors, including the learning model, the underlying data generating process, the time series length and the forecast horizon. As a second contribution, we develop multi-stage forecasting strategies that do not treat the recursive and direct strategies as competitors, but seek to combine their best properties. More precisely, the multi-stage strategies generate recursive linear forecasts, and then adjust these forecasts by modeling the multi-step forecast residuals with direct nonlinear models at each horizon, called rectification models. We propose a first multi-stage strategy, that we called the rectify strategy, which estimates the rectification models using the nearest neighbors model. However, because recursive linear forecasts often need small adjustments with real-world time series, we also consider a second multi-stage strategy, called the boost strategy, that estimates the rectification models using gradient boosting algorithms that use so-called weak learners.

Generating multi-step forecasts using a different model at each horizon provides a large modeling flexibility. However, selecting these models independently can lead to irregularities in the forecasts that can contribute to increase the forecast variance. The problem is exacerbated with nonlinear machine learning models estimated from short time series. To address this issue, and as a third contribution, we introduce and analyze multi-horizon forecasting strategies that exploit the information contained in other horizons when learning the model for each horizon. In particular, to select the lag order and the hyperparameters of each model, multi-horizon strategies minimize forecast errors over multiple horizons rather than just the horizon of interest.

We compare all the proposed strategies with both the recursive and direct strategies. We first apply a bias and variance study, then we evaluate the different strategies using real-world time series from two past forecasting competitions. For the rectify strategy, in addition to avoiding the choice between recursive and direct forecasts, the results demonstrate that it has better, or at least has close performance to, the best of the recursive and direct forecasts in different settings. For the multi-horizon strategies, the results emphasize the decrease in variance compared to single-horizon strategies, especially with linear or weakly nonlinear data generating processes. Overall, we found that the accuracy of multi-step-ahead forecasts based on machine learning algorithms can be significantly improved if an appropriate forecasting strategy is used to select the model parameters and to generate the forecasts.

Lastly, as a fourth contribution, we have participated in the Load Forecasting track of the Global Energy Forecasting Competition 2012. The competition involved a hierarchical load forecasting problem where we were required to backcast and forecast hourly loads for a US utility with twenty geographical zones. Our team, TinTin, ranked fifth out of 105 participating teams, and we have been awarded an IEEE Power & Energy Society award.


Doctorat en sciences, Spécialisation Informatique
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography