To see the other types of publications on this topic, follow the link: Statistiques appliquées.

Dissertations / Theses on the topic 'Statistiques appliquées'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Statistiques appliquées.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Benomar, Othman. "Sismologie stellaire : méthodes statistiques appliquées aux étoiles de type solaire." Paris 11, 2010. http://www.theses.fr/2010PA112309.

Full text
Abstract:
Cette thèse a porté sur l'analyse des spectres de puissance des étoiles de type solaire observées par les missions Corot et Kepler. L'analyse des étoiles ciblées se révèle délicate car les pulsations sont de faibles intensités et à cause des propriétés intrinsèques des pulsations de certaines d’entre elles. Des méthodes robustes d’inférence des propriétés des modes stellaires ont été développées. Elles sont basées sur une approche Bayésienne d'analyse du signal, utilisant soit des méthodes d'échantillonnages par chaine de Markov (MCMC), soit des méthodes par maximum a posteriori (MAP). Trois problématiques sont abordées : comment identifier les modes de pulsations stellaires avec des séries temporelles à faible rapport signal sur bruit ? Comment extraire les paramètres des modes de pulsations stellaires sur un large ensemble d’étoiles ? Quelle est la structure interne des étoiles observées ? Les capacités de mes méthodes sont démontrées sur la base de simulations et d'observations de 3 étoiles : le Soleil, HD49933 et HD181420. L'ajustement du spectre de puissance de HD49933 et HD181420 par méthode MCMC nous permet d'identifier les modes avec un degré élevé de confiance là où des méthodes plus classiques d’analyse du signal échouent. Un des algorithmes développés montre qu'il est possible d'identifier automatiquement les modes de manière fiable. Enfin, des modèles de structure interne de HD49933 et de HD181420 d'après les observations sismiques sont présentés : on met en évidence par exemple la présence d'un cœur convectif au sein de ces étoiles
This thesis focused on the analysis of the power spectra of solar-like stars observed by the Corot and Kepler missions. The analysis of these stars proved to be difficult, their pulsations being of low intensity and because of the intrinsic properties of the pulsations of some of them. Robust methods of inference of the properties of the stellar modes have been developed. They are based on a Bayesian approach, using either Markov Chain Monte Carlo sampling methods (MCMC) or maximum a posteriori (MAP) methods. Such approaches are based on a mathematical formalism taking into account prior information of the studied object. Three issues are addressed: How to identify the stellar pulsation modes with time series at low signal noise ratio? How to extract the parameters of the stellar pulsations of modes on a large set of stars? What is the internaI structure of the observed stars? Capabilities of my methods are demonstrated using simulations and observations of three stars: the Sun, HD49933 and HD181420. The adjustment of the power spectrum of HD49933 and HD181420 by MCMC method allows us to identify the modes with a high degree of confidence compares to more traditional methods of signal analysis. Applying the developed algorithm on these data also shows the reliability of an automatic identification method based on a MAP approach. Finally, models of internal structure of HD49933 and HD181420 using the seismic observations are presented: for instance we show that these stars have a convective core
APA, Harvard, Vancouver, ISO, and other styles
2

Gaeta, Michel. "Les statistiques d'ordre supérieur appliquées à la séparation de sources." Grenoble INPG, 1991. http://www.theses.fr/1991INPG0064.

Full text
Abstract:
Le probleme de la separation de sources independantes gaussiennes melangees lineairement est devenu une application classique en traitement du signal, permettant d'illustrer toutes les potentialites d'une analyse statistique des proprietes des signaux. En effet, il est possible de construire les estimateurs de certains parametres d'un tel systeme au sens du maximum de vraisemblance pour ce type de signaux. Il est alors possible de separer des sources moyennant quelques hypotheses supplementaires sur le mode de propagation des signaux dans le milieu traverse pour resoudre totalement le probleme. Des lors que ces hypotheses physiques ne sont plus valides, on montre qu'il n'est plus possible de separer des sources notamment s'il s'agit de signaux non gaussiens, en utilisant la meme demarche. Ce cas de figure est precisement la situation traitee dans ce manuscrit. Nous montrerons qu'il est possible de construite la fonctionnelle de vraisemblance d'un tel systeme; celle-ci doit prendre en compte non seulement des criteres de puissance, mais doit permettre de decrire l'independance des sources d'une maniere plus precise. Il est alors necessaire d'introduire des statistiques d'ordre superieur. En pratique nous utiliserons un developpement de gram-charlier des densites de probabilite pour apprecier cette independance. Nous nous limiterons a un developpement d'ordre quatre faisant apparaitre des cumulants de meme ordre. Ces quantites statistiques possedent une structure tensorielle que nous utiliserons dans nos developpements apres en avoir expose les proprietes. Nous serons egalement amenes a preciser les notions de variables aleatoires complexes circulaires. L'algorithme propose donnant une solution du probleme au sens du maximum de vraisemblance presente la particularite de completer les algorithmes classiques classiques d'ordre deux par un algorithme specifiquement d'ordre quatre. Des exemples d'application de cet algorithme sont alors donnes
APA, Harvard, Vancouver, ISO, and other styles
3

Mercier, Ludovic. "Séries temporelles chaotiques appliquées à la finance problèmes statistiques et algorithmiques." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090049.

Full text
Abstract:
Notre contribution à l'étude des séries temporelles chaotiques porte sur les points suivants. Nous proposons un cadre d'étude permettant de prendre en compte les apports des différents domaines scientifiques traitant de ce type de données : traitement du signal, systèmes dynamiques, théorie ergodique, finance et statistiques. Nous précisons la notion d'exposant de Lyapunov global à l'aide de plusieurs définitions, de la plus formelle à la plus usitée. Nous montrons pourquoi les exposants de Lyapunov globaux sont utiles pour caractériser un chaos mais pratiquement inutiles lorsqu'il s'agit de faire des prévisions. On s'intéresse alors aux exposants de Lyapunov locaux. On montre comment chaque définition est reliée aux exposants de Lyapunov globaux et on précise dans quel cadre applicatif chaque définition est pertinente. On donne un résultat nouveau concernant la distribution des exposants de Lyapunov locaux. Nous considérons les méthodes de prévisions non-paramétriques utilisables dans ce contexte en en détaillant deux qui semblent particulièrement adaptées aux chaos : les plus proches voisins et les fonctions radiales. Ce dernier estimateur fait l'objet d'une étude plus approfondie. On précise ses propriétés et on donne un algorithme pour le mettre en œuvre. Nous étudions la prédictibilité des séries temporelles chaotiques. On montre comment l'horizon de prédiction est relié aux exposants de Lyapunov locaux du système. On propose une approche théorique nouvelle pour traiter le cas des chaos bruités. On s'intéresse au problème du choix d'un pas d'échantillonnage pour les séries chaotiques issues d'un système en temps continu. On donne un résultat nouveau permettant de choisir un pas d'échantillonnage optimal au sens de l'horizon de prédiction. Nous étayons ces présentations d'un ensemble de simulations à partir de chaos connus en précisant leurs couts algorithmiques. On discute les problèmes posés par la simulation des séries temporelles chaotiques. Enfin, nous donnons deux applications des outils développés dans le cadre des séries financières infra-journalières. La première application est une illustration directe de ces outils dans le cas des taux de change. La seconde application fait préalablement appel aux méthodes de déformation du temps qui sont présentées ici dans un cadre unifié nouveau
APA, Harvard, Vancouver, ISO, and other styles
4

Raillard, Nicolas. "Modélisation du comportement extrême de processus spatio-temporels. Applications en océanographie et météorologie." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00656468.

Full text
Abstract:
Ce travail de thèse porte sur l'étude des extrêmes d'une variable océanique importante dans le cadre des applications: la hauteur significative des vagues. Cette quantité est observée fidèlement par des satellites, mais cette source de donnée produit des données complexes du fait d'une répartition des observations irrégulière, en temps et en espace. Ce problème est primordial dans le cadre de l'étude des extrêmes, car peu de modèles statistiques sont adaptés à de telles données. Deux modèles sont présentés dans ce document. Nous commençons par décrire un modèle d'interpolation basé sur l'estimation des vitesses de déplacement des structures d'états de mer à l'aide de méthodes de filtrage particulaire. Ensuite nous avons mis en place une procédure d'estimation de la structure d'ordre deux du champ déplacé, dans le but d'appliquer une interpolation. Cette procédure a montré une amélioration par rapport aux techniques usuelles, mais une insuffisance pour modéliser les extrêmes. Dans un second temps, nous mettons en oeuvre une procédure pour modéliser les dépassements de seuils d'un processus observé à temps irrégulier ou avec des valeurs manquantes. Nous proposons un modèle basé sur les méthodes de dépassement de seuils multi-variés et les extrêmes de processus, ainsi qu'une méthode d'estimation des paramètres par des techniques de vraisemblance composite. Enfin, nous montrons la convergence de l'estimateur et, à l'aide de simulations ainsi que par une application à des données de hauteurs significatives, nous concluons que la prise en compte de tous les dépassements permet d'améliorer l'estimation des niveaux de retour de même que de la description de la durée des extrêmes.
APA, Harvard, Vancouver, ISO, and other styles
5

Pirrachio, Romain. "Méthodologies d'inférence causale appliquées à l'analyse de données observationnelles de réanimation." Paris 7, 2012. http://www.theses.fr/2012PA077023.

Full text
Abstract:
L'estimation du bénéfice à l'admission en réanimation repose essentiellement sur l'analyse de données observationnelles. L'utilisation de méthodes statistiques classiques ne permet pas de conclure à l'existence de liens de causalité. Des méthodes d'inférence causale pour données observationnelles ont été développées au cours des dernières décennies. La plupart sont basées sur la modélisation de la probabilité de traitement. La plus fréquemment utilisée est le score de propension. Nous rapportons tout d'abord une revue de la littérature portant sur les revues majeures d'Anesthésie-Réanimation et visant à évaluer l'utilisation du score de propension (PS). Cette méthode présente un certain nombre de limites, particulièrement dans le contexte de données de réanimation. Dans une seconde partie, nous nous sommes donc intéressés,à estimer les performances du PS en cas de petit effectif ou de faible prévalence du traitement. Nous nous sommes ensuite intéressés au cas de l'évaluation de traitements à plus de deux catégories, en appliquant la méthode du PS généralisé. Les facteurs de confusion temps dépendants ainsi que les traitements évolutifs dans le temps constituent une autre limite potentielle à l'utilisation du PS. La suite de ce travail a pour objectif d'évaluer l'utilisation des modèles marginaux structuraux en tant qu'alternative au PS en cas de facteurs de confusion et/ou de traitement temps dépendants. Toutes ces méthodes reposent sur l'hypothèse d'absence de facteurs de confusion non mesurés. La dernière partie a pour objectif d'évaluer l'utilisation des variables instrumentales quand l'existence de facteurs de confusion non mesurés est suspectée
Benefit of Intensive Care Unit cannot be evaluated by performing randomized controlled trials, and therefore rely on observational studies. Standard analyses cannot be used to draw causal conclusions. Hence, specific statistical methods have been developed over the past decades in order to draw causal conclusions from observational data. Most of these methods rely on modelling the probability of treatment, the most popular being the propensity score. The first part of the thesis is dedicated to a review of the literature focussing on the use of thèse methods in the major Anesthesiology and Critical Care journals. We then focussed on the potential limitations related to the use of the propensity score. We first evaluated the performance of this method in the context of small sample size or low prevalence of the treatment. We then evaluated the generalized propensity approach as an option for the estimation of treatments with more than two categories. The presence of time-dependant confoundings cannot be handled by propensity score methods. Therefore, we evaluated thé use of marginal structural model as an alternative to propensity score in case of time-dependant confoundings. Finally, because all methods based on probability-of-treatment models rely on the hypothesis of absence of unmeasured confoundings, the last section of this thesis was dedicated to the use of instrumental variable approach when the presence of unmeasured confoundings can be suspected
APA, Harvard, Vancouver, ISO, and other styles
6

Richard, Frédéric. "Modèles et analyses statistiques de l'image biomédicale." Habilitation à diriger des recherches, Université René Descartes - Paris V, 2009. http://tel.archives-ouvertes.fr/tel-00522704.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Augustin, Lefèvre. "Méthodes d'apprentissage appliquées à la séparation de sources mono-canal." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00764546.

Full text
Abstract:
Étant donne un mélange de plusieurs signaux sources, par exemple un morceau et plusieurs instruments, ou un entretien radiophonique et plusieurs interlocuteurs, la séparation de source mono-canal consiste a' estimer chacun des signaux sources a' partir d'un enregistrement avec un seul microphone. Puisqu'il y a moins de capteurs que de sources, il y a a priori une infinité de solutions sans rapport avec les sources originales. Il faut alors trouver quelle information supplémentaire permet de rendre le problème bien pose. Au cours des dix dernières années, la factorisation en matrices positives (NMF) est devenue un composant majeurs des systèmes de séparation de sources. En langage profane, la NMF permet de d'écrire un ensemble de signaux audio a ́ partir de combinaisons d' éléments sonores simples (les atomes), formant un dictionnaire. Les systèmes de séparation de sources reposent alors sur la capacité a trouver des atomes qui puissent être assignes de fa con univoque 'a chaque source sonore. En d'autres termes, ils doivent être interprétables. Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapte a la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles ou' seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapte a chaque source. Ces dictionnaires permettent ensuite d'effectuer la tache de séparation dans les intervalles ou' les sources sont mélangées. Ces deux taches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire a grande échelle, sur des signaux de plusieurs heures, ce qui était impossible auparavant. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche a' l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement difficile, et l'apport d'information spécifique au signal traite est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquence. Elle repose sur l'observation que la quasi-totalite du spectro- gramme peut être divise en régions spécifiquement assignées a' chaque source. Nous d'éecrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples.
APA, Harvard, Vancouver, ISO, and other styles
8

Couteron, Pierre. "Statistiques spatiales appliquées à l'étude de la végétation : un lien entre structure et processus dynamiques." Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00090679.

Full text
Abstract:
Les travaux présentés pour cette HdR s'intéressent à la façon dont l'analyse statistique des structures spatiales peut contribuer à la compréhension et à la modélisation spatialement explicite des processus dynamiques qui façonnent les différents aspects de la végétation terrestre. Cette thématique fait d'abord l'objet d'une mise en perspective historique avant d'être illustrée par des travaux menés sur l'émergence de structures spatiales périodiques dans les végétations semi-arides d'Afrique occidentale. Elle constitue ensuite la trame d'un programme de recherches, visant à caractériser l'organisation spatiale à grande échelle (macro-écologie) de la biodiversité végétale des forêts tropicales, sur la base de synergies novatrices entre télédétection, modélisation de l'architecture de la forêt et modèles d'assemblages d'espèces. L'auteur présente ensuite ses contributions récentes à ce programme (caractérisation des textures de canopée, analyse et modélisation des assemblages d'espèces), puis évoque les perspectives de développements méthodologiques dans ces domaines
APA, Harvard, Vancouver, ISO, and other styles
9

Rotty, Marie-Caroline. "Modélisations statistiques de données de cohortes de patients suivis à domicile." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS055.

Full text
Abstract:
Le SAHOS présente une prévalence de 5.9% à 79% dans la population générale de plus de 35 ans mais reste sous diagnostiqué. Le traitement de référence des formes modérées à sévère reste en 2019 la Pressions Positive Continue (PPC). Le bénéfice à la PPC implique une observance suffisante du patient, cette observance étant conditionnée par de multiples facteurs dont les effets secondaires liés à l’interface (fuite entre autres et conséquences de ces fuites). Au cours de cette thèse, nous démontrons la faisabilité du dépistage du SAOS par signal Jawac® dans la population générale.L’analyse des résultats des patients de la cohorte Interface-vent traités par PPC au long cours, souligne que les effets secondaires tels que rapportés par ces patients (dont certains associés aux fuites) sont associés à l’observance et à la somnolence alors que les données machines (index d’apnée hypopnée résiduel et fuites machines) ne le sont pas. Cette absence d’association entre données machine pouvant faire l’objet d’un télésuivi (tel que proposé dans l’algorithme ATS 2013) et observance du patient a été confirmé pour le sous-groupe de patient de la cohorte respectant les critères d’appareillage machine et d’interface de l’algorithme ATS 2013.Les travaux de collaborations ont par ailleurs permis d’aborder la thématique des fuites rapportées par la machine sous deux autres aspects. Tout d’abord, il a été démontré que le mode auto-piloté ou constant de la PPC n’a aucun effet sur le niveau de la fuite rapportée par la machine (alors que l’interface faciale et le niveau de pression machine ont un impact). L’étude des déterminants des fuites au cours d’une nuit d’enregistrement polygraphique a permis de souligner l’hétérogénéité des déterminants de ces fuites non intentionnelles au niveau individuel et la difficulté pour certains patterns de fuites à trouver un consensus de traitement de la fuite
Sleep Apnea syndrome (SAS) is a common sleep disorder with a prevalence ranging from 5.9% to 79.2% in European general populations over 35 years of age old but remains under diagnosed. Continuous positive airway Pressure (CPAP) remains the treatment reference for moderate to severe forms of SAS in 2019. CPAP benefits depend on sufficient patient adherence, which is conditioned by multiple factors, including interface related side effects (leakage and their consequences, among others).In this thesis, we demonstrate the feasibility of OSA screening with Jawac® signaling in the general population. The analysis of the long-term CPAP-treated patient results in the interface-vent cohort highlighted that side-effects reported by these patients (some associated with leakage) are associated with compliance and sleepiness, while machine data (residual apnea/hypopnea index and machine leakage) are not.This lack of association between machine data (that could be monitored as proposed in the ATS 2013 algorithm) and patient compliance was confirmed for the patient subgroup of the cohort respecting the machine criteria and interface equipment of the ATS 2013 algorithm.Collaborative work has also made it possible to address the issue of leaks reported by the machine under two other aspects. First of all, it has been shown that the auto- or constant mode of the CPAP has no effect on the level of the leak reported by the machine (while the oro-nasal interface and the pressure level machine have an impact). By studying determinants of leaks during a night of polygraphic recording, the heterogeneity of unintentional leak determinants at the individual was demonstrated. Finding a consensus for how to quantify leak patterns remains a challenge in the field
APA, Harvard, Vancouver, ISO, and other styles
10

Soudain-Pineau, Mickaël. "Statistiques appliquées à la physiologie du sport dans l’exploration des variables influençant la performance chez les cyclistes." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000981.pdf.

Full text
Abstract:
Tout d’abord, nous avons étudié une population de 112 cyclistes réparties en trois niveaux amateurs. Ces sujets ont réalisé un test incrémental par palier de trois minutes. Des variables anthropométriques ainsi que physiologiques et physiques ont été étudiées à deux moments, au seuil lactique et au maximum de la pour chaque individu. Nous avons utilisé l’analyse discriminante pour obtenir au seuil lactique une fonction discriminante linéaire et à max une fonction discriminante quadratique composées des variables les plus discriminantes. Ensuite, pour 213 cyclistes professionnels, nous avions les valeurs de plusieurs hormones avant et après un test incrémental. Nous disposions également de paramètres physiques et physiologiques pour chaque athlète. Nous avons étudié le comportement de ces hormones et l’influence des paramètres physiques et physiologiques sur les valeurs « hors normes ». La régression multiple a permis d’établir un modèle linéaire composé des paramètres les plus significatifs expliquant la puissance. Il s’agit des variables : Taille, Ventilation anaérobie, Fréquence cardiaque anaérobie, Testostérone libre avant effort, Âge, LH avant effort, Prolactine avant effort et max. Enfin l’étude de la lactatémie prélevée lors d’un exercice incrémental et jusqu’à 10 minutes après l’effort chez une population de cyclistes professionnels a permis, avec l’aide d’un modèle existant, de modéliser le comportement du lactate sanguin. Cette fonction décrivant l’évolution du lactate sanguin pendant toute la durée de l’effort permet d’effectuer une simulation sur le retour à un niveau basal
First, we studied a population of 112 cyclists divided into three levels amateurs. These subjects carried out an incremental test by three minute old stage. Anthropometric variables like physiological and physical were studied at two times, at the lactic threshold and at the maximum of the for each individual. We used discriminant analysis to obtain with the lactic threshold a linear discriminant function and in max a quadratic discriminant function made up of the most significant variables. Then, for 213 professional cyclists, we had the values of several hormones before and after an incremental test. We also had physical and physiological parameters for each athlete. We studied the behavior of these hormones and the impact of the physical and physiological parameters on the excepted values. The multiple regression analysis allowed to establish a linear model made up of the most significant parameters explaining the power. Finally, the study of the lactatemy taken at an incremental exercise and for 10 minutes after exercice for a population of professional cyclists allowed, using an existing model, to modeling the blood lactate reaction. This function describing the blood lactate evolution throughout all exercice duration allow to carry out a simulation on the return to a basal level
APA, Harvard, Vancouver, ISO, and other styles
11

Faucon, Jean-Christophe. "Etudes statistiques et des relations structure-écotoxicité appliquées aux données écotoxicologiques d'un ensemble hétérogène de substances nouvelles." Caen, 1998. http://www.theses.fr/1998CAEN4002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Sedki, Mohammed. "Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00769095.

Full text
Abstract:
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
APA, Harvard, Vancouver, ISO, and other styles
13

Gaudoin, Olivier. "Outils statistiques pour l'évaluation de la fiabilité des logiciels." Grenoble 1, 1990. http://www.theses.fr/1990GRE10138.

Full text
Abstract:
Le but de ce travail est de proposer des méthodes statistiques pour l'étude de la fiabilité d'un logiciel considère comme un système dont les défaillances ne proviennent que de ses fautes de conception, au vu de ses défaillances et corrections successives. Pour cela, nous proposons une modélisation stochastique du comportement d'un logiciel au cours du temps en termes de défaillance et de corrections, prenant en compte ses fautes de conception et son processus de sollicitation. On montre que l'évolution du système résulte de l'interaction complexe de trois processus aléatoires ponctuels, cette interaction étant entièrement résumée par la donnée de l'intensité conditionnelle de défaillances. Ce résultat permet d'envisager les modèles classiques de fiabilité des logiciels sous un angle nouveau permettant de comparer leurs qualités respectives. Il permet également de construire une nouvelle classe de modèles, les modèles proportionnels, dont la caractéristique est d'exprimer simplement l'effet d'une correction sur le taux de défaillance du logiciel. Nous étudions en détail deux de ces modèles, le premier consistant à représenter l'effet d'une correction par un réel, le second par une variable aléatoire gaussienne. L'analyse statistique de ces modèles est centrée sur l'estimation des paramètres impliques et soulève des problèmes mathématiques attrayants. Enfin, nous nous intéressons à l'étude des tests de tendance de fiabilité. Nous proposons de nouvelles méthodes en les comparant aux anciennes, et mettons en évidence les propriétés remarquables du test de Laplace
APA, Harvard, Vancouver, ISO, and other styles
14

Salipante, Florian. "Mise au point de méthodologies statistiques appliquées à des données issues de la génomique : puces à ADN, ChIP-chip et ChIP-Seq." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20176/document.

Full text
Abstract:
La recherche dans le domaine de la génomique génère de données colossales dont la dimension ne cesse de s'accroître avec la technologie. Pour traiter cette masse d'information, la statistique est devenue un outil indispensable. Ce nouveau type de données représente un véritable challenge dans la mesure où ces données sont de très grande dimension, qu'elles sont très "bruitées" et qu'il n'existe généralement pas de "golden standard" permettant de valider les résultats. Au cours de cette thèse, nous nous sommes intéressés à l'analyse statistique de trois types de données : les puces à ADN, les ChIP-chip et les ChIP-Seq. Pour chacune d'entres elles, une nouvelle approche a été mise au point. Dans le cas des données de puces à ADN, la méthode GAGG permet de détecter les gènes différentiellement exprimés et de les grouper par type de profils. Pour ce faire, un Algorithme Génétique est utilisé de manière à optimiser deux critères liés à des méthodes voisines de l'ACP et des k-means. Pour les données de ChIP-chip, la méthode POTChIPS a été réalisée. Elle permet de repérer sur le génome, les sites de fixation d'une protéine d'intérêt (ex : un facteur de transcription). Dans cette méthode, une extraction des pics du signal est réalisée puis un seuil de significativité est déterminé à partir d'une modélisation POT. Enfin, pour ce qui est des données de ChIP-Seq, l'objectif est le même que pour les ChIP-chip, à savoir, repérer les sites de fixation d'une protéine sur l'ADN. La méthode POTSeq, mise au point au cours de cette thèse, est une adaptation de POTChIPS aux données de ChIP-Seq
Research in Genomics produces very huge data which still increase with technology. Statistics is becoming essential to treat this amount of information. These new kind of data represent a great challenge in data analysis because of the great dimensions, the important background and the absence of "golden standard" which could allow to validate the obtained results. During this PhD thesis, we focused on statistical analysis for three kinds of data: DNA microarray, ChIP-chip and ChIP-Seq. For each one, a new approach have been proposed. For DNA microarrays, the GAGG method allows to detect differentially expressed genes and to cluster them by profile types. To do so, a Genetic Algorithm is used in order to optimize two criteria related to two nearby methods of PCA and $k$-means. In the case of ChIP-chip data, the POTChIPS method have been proposed. It allows to detect the binding sites of a protein of interest (a transcription factor e.g.) along the genome. In this method a peak extraction i realized then a significant threshold is obtained from a POT modelization. Finally, for ChIP-Seq data, the goal is the same that the one of chIP-chip, i.e., to find on DNA the binding sites of a protein of interest. The POTSeq method is an adaptation of POTChIPS for ChIP-Seq.La méthode POTSeq, mise au point au cours de cette thèse, est une adaptation de POTChIPS aux données de ChIP-Seq
APA, Harvard, Vancouver, ISO, and other styles
15

Poirier, Bertrand. "Analyses statistiques appliquées aux contrôles d'activité in vitro des vaccins humains : impact dans le projet d'accréditation d'un laboratoire de contrôles de médicaments biologiques (standard ISO 17025)." Lyon 1, 2002. http://www.theses.fr/2002LYO10015.

Full text
Abstract:
Les dispositions réglementaires européennes en vigueur applicables aux vaccins (directives européennes 2001/83/CE du 6 novembre 2001) prévoient un principe de reconnaissance mutuelle des contrôles afin d'éviter leur duplication au sein de l'Union Européenne. Actuellement, si les scientifiques européens peuvent parfois utiliser des étalons et standards biologiques de références pour leurs essais de qualité des vaccins, ils ne disposent pas d'outils mathématiques et statistiques standardisés. Néanmoins,les laboratoires officiels de contrôles de médicaments européens sont confrontés à un enjeu et une compétition importants en terme de qualité et de fiabilité de leurs résultats. Ce travail propose une approche globale concernant l'analyse et l'interprétation statistiques des dosages biologiques applicables aux vaccins avec comme principal objectif de s'inscrire dans le projet d'accréditation d'un laboratoire de contrôles de médicaments biologiques (standards ISO 17025). Pour cela nous avons suivi une démarche pragmatique comprenant successivement : la standardisation biologique appliquées aux vaccins ; l'aide à la décision de conformité par l'utilisation des statistiques lors du développement d'une technique, ce qui comprend entre autre la définition des critères de contrôles, le choix des produits biologiques et le développement d'un test ; la création du logiciel de calcul correspondant ; la validation et la mise en place d'une procédure de vérification de ce logiciel spécifiquement adapté à une méthode de dosage biologique d'activité ; la validation de la technique de dosage biologique incluant le choix du plan d'expérience le mieux adapté et l'estimation des erreurs (répétabilité, fidélité intermédiaire, exactitude, linéarité) ; l'habilitation du personnel technique au sein d'un laboratoire d'essais ; la maîtrise statistique des processus de contrôle des vaccins. L'innovation de notre travail a consisté à développer l'ensemble des ces points en vue de leur application au domaine biologique en retenant trois modèles d'études. Les modèles d'étude choisis illustrent les trois types d'essais d'activité fondamentaux pour apprécier la qualité pharmaceutique des vaccins. D'une part, nous nous sommes intéressés aux essais permettant de quantifier les anticorps neutralisants obtenus par immunisations chez l'animal (modèle dé́tude : vaccin coquelucheux acellulaire) et, d'autre part, à deux méthodes de contrôle d'activité in vitro : l'évaluation de l'activité des vaccins atténués par la méthode des plages de lyse (modèle d'étude ; vaccin contre la fièvre jaune) et le tirage de la charge antigénique des vaccins inactivés par la méthode immunoenzymatique (modèle d'étude : vaccin contre l'hépatite A).
APA, Harvard, Vancouver, ISO, and other styles
16

Cembrzynski, Thierry. "Conception et réalisation d'outils statistiques et d'intelligence artificielle pour l'aide à la planification du réseau de transport d'Electricité de France." Paris 9, 1988. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=1988PA090015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Bousquet, Nicolas. "Analyse bayésienne de la durée de vie de composants industriels." Paris 11, 2006. http://www.theses.fr/2006PA112237.

Full text
Abstract:
Le contexte de ce travail de recherche est celui de l'utilisation des outils de la statistique bayésienne pour estimer les grandeurs caractérisantes de la durée de vie d'un composant industriel, modélisée par un modèle statistique paramétrique. En effet, le cadre d'étude est celui d'un faible nombre de données de défaillance, par ailleurs censurées, et les méthodes fréquentistes (maximisation de la vraisemblance) proposent des estimations souvent erronées de ces grandeurs. Plus spécifiquement, le modèle de Weibull est étudié, le composant étant supposé soumis au vieillissement. Un modèle mettant en concurrence défaillances par accident et vieillissement est développé, permettant d'améliorer la représentation de la durée de vie. Une connaissance experte est disponible ; nous proposons alors une famille de modélisations a priori apte à représenter cette connaissance tout en étant facilement calibrable par un analyste industriel. L'un des enjeux importants de cette étude est de positionner cette information subjective à l'information objective, apportée par les données, et ainsi de contrôler la calibration. L'apport majeur de cette thèse est la définition et l'utilisation du critère DAC, dans un cadre plus général, qui détecte une éventuelle incohérence entre les données et la modélisation a priori. Celui-ci offre une amélioration par rapport à la seule approche existante. Il apparaît comme un outil pratique, préalable à l'inférence. Des propriétés de calibration par défaut achèvent d'en faire un instrument intéressant de l'analyste industriel. Enfin, un récapitulatif didactique de certaines méthodes de calcul bayésien achève ce travail, dont l'objectif est de fournir un ensemble d'outils adéquats et maniables à un ingénieur
This thesis takes place in a context when Bayesian techniques are sued to estimate magnitudes in industrial reliability and durability, when lifetime is represented by a parametric statistical model. We firstly focus our study around the Weibull distribution, modelling components submitted to aging. A competing risk model between aging and accidental failure is developed. Bayesian technics are used because lifetime data are typically in a few number and contain censored values. Besides, some expert knowledge is provided. Thus, a prior family is elicited such that its calibration is simple for an industrial analyst. Especially, the location of the subjective information with respect to the objective data information is a point of interest. The main contribution of the thesis is the definition and the study of the DAC criterion, which measures a possible discrepancy between a prior and available data, in a larger setting than reliability. DAC improves the existing techniques, has some default calibration properties and constitutes a helpful technique in the toolkit of the Bayesian industrial analyst. Finally, a review of importance sampling approaches - which appear to be especially adapted to Bayesian computation in our industrial settings - ends this thesis work, whosefirst aim is to propose methodological avenues for engineers
APA, Harvard, Vancouver, ISO, and other styles
18

Browne, Thomas. "Regression models and sensitivity analysis for stochastic simulators : applications to non-destructive examination." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB041/document.

Full text
Abstract:
De nombreuses industries ont recourt aux examens non-destructifs (END) afin d’assurer l’intégrité de certains composants importants, le but étant d’y détecter d’hypothétiques défauts avant tout évènement indésirable (ruptures, fuites etc...). L’environnement des END étant très aléatoire, il est légitime de s’interroger sur la fiabilité de tels procédés. De ce fait, on quantifie leur efficacité par leurs probabilités de détection. On les modélise par des courbes croissantes, fonctions de la taille du défaut à détecter : courbes de PoD (Probability of Detection). Cette thèse vise à présenter des outils pour construire et étudier les courbes de PoD à travers des stratégies parcimonieuses. Notre approche repose essentiellement sur la modélisation de ces courbes par des fonctions de répartitions aléatoires. D`es lors, il est nécessaire de définir des grandeurs pertinentes afin d’étudier leur distribution. Des estimateurs par Krigeage de ces valeurs seront introduits. Des techniques de planifications séquentielles pour améliorer la qualité des estimateurs de courbes de PoD ainsi que pour répondre à des problèmes d’optimisation sont développées. De plus, des indices d’analyse de sensibilité fonctionnels afin de quantifier l’influence de divers paramètres sur la qualité de détection sont présents. Leurs estimateurs respectifs sont également proposés
Many industries perform non-destructive examination (NDE) in order to ensure the integrity of some important components, where the goal is to detect a hypothetical flaw before the occurrence any non desirable event (breaks, leaks etc...). As the NDE environment is highly random, it is legitimate to wonder about the reliability of such procedures. To this effect, their efficiencies are quantified through their probabilities of detection. They are modelled by increasing curves, functions of the flaw size to detect: Probability of Detection-curves (PoD-curves). This thesis aims to introduce tools in order to both build and study PoD-curves through parsimonious strategies. Our approach mainly consists in modelling these curves by random cumulative distribution functions. From this point, it becomes necessary to define relevant objects to quantify their probability distributions. Kriging-based estimators for these values are introduced. Techniques are developed in order to carry out sequential strategies for both the improvement of the PoD-curve estimators and optimization problems. Besides, in order to quantify the influence of input parameters over the quality of detection, functional sensitivity analysis indices are provided. Their respective estimators are also introduced
APA, Harvard, Vancouver, ISO, and other styles
19

Barré, Anthony. "Analyse statistique de données issues de batteries en usage réel sur des véhicules électriques, pour la compréhension, l’estimation et la gestion des phénomènes de vieillissement." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT064/document.

Full text
Abstract:
Le marché des véhicules électriques connait actuellement un développement important motivé par diverses raisons. Cependant, des limites liées à leurs performances constituent des inconvénients majeurs à une croissance des ventes de plus grande importance. Les performances et durée de vie des batteries utilisées sont au cœur des préoccupations des utilisateurs. Les batteries sont sujettes à des pertes de performances au fil du temps, dus à des phénomènes complexes impliquant des interactions entre les diverses conditions de vie de celles-ci. Dans l'objectif d'améliorer la compréhension et l'estimation du vieillissement d'une batterie, ces travaux étudient des données issues d'usages réels de batteries sur des véhicules électriques. En particulier, l'étude consiste en l'adaptation d'approches statistiques fondées sur les données mesurées, mettant en évidence des interactions entre variables, ainsi que la création de méthodes d'estimation du niveau de performance de batterie uniquement basé sur les mesures obtenues. Les résultats de ces méthodologies ont permis d'illustrer l'apport d'une approche statistique, par exemple en démontrant la présence d'informations contenues dans les signaux issus de la batterie, utiles pour l'estimation de son état de santé
Due to different reason The electrical vehicle market is undergoing important developments. However the limits associated with performance represent major drawbacks to increase the sales even more. The batteries performance and lifetime are the main focus of EV users. Batteries are subject to performance loss due to complex phenomena implying interactions between the different life conditions of the battery. In order to improve the understanding and estimation of battery aging, the studies were based on datasets from real use ev batteries. More precisely, this study consists in the adaptation and application of statistical approaches on the available data in order to highlight the interactions between variables, as well as the creation of methods for the estimation of battery performance. The obtained results allowed to illustrate the interests of a statistical approach. For example the demonstration of informations contained in the signals coming from the battery which are useful for the estimation of its state of health
APA, Harvard, Vancouver, ISO, and other styles
20

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Full text
Abstract:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle
When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
APA, Harvard, Vancouver, ISO, and other styles
21

Ribereau, Pierre. "Quelques contributions à la statistique théorique et appliquée." Paris 6, 2005. http://www.theses.fr/2005PA066164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Galharret, Jean-Michel. "Statistique bayésienne appliquée en sciences humaines et sociales." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4062.

Full text
Abstract:
Ce travail s’intéresse à deux problématiques : la première concerne l’analyse de médiation et la seconde concerne la datation en archéologie en présence de valeurs aberrantes. Concernant l’analyse de médiation, d’une part, je développe une approche non paramétrique pour tester l’existence de l’effet direct dans la médiation causale à réponse binaire. D’autre part, différentes lois a priori sont comparées dans l’inférence bayésienne pour la médiation causale à réponse binaire. Enfin, les G-priors sont adaptés à des modèles de médiation issus de recherche en psychologie et un test de modération basé sur le facteur de Bayes est proposé. Concernant la datation en archéologie, une méthodologie est construite pour estimer des âges en présence de valeurs aberrantes. Celle-ci est basée sur une modélisation bayésienne existante (Event Model) à partir de laquelle un test de détection des valeurs aberrantes est développé. Cette méthodologie est appliquée dans le cadre de la combinaison de mesures et dans le cadre de l’estimation d’un âge par la méthode OSL (Optically Stimulated Luminescence)
This work focuses on two issues: the first concerns mediation analysis and the second concerns dating in archaeology in the presence of outliers. Concerning the mediation analysis, I have developed a non-parametric approach to test the existence of direct effect in binary response causal mediation. Second, prior distributions are compared in Bayesian inference for causal mediation with binary response. Third, the B-priors are adapted to mediation models from psychological research and a moderation test based on the Bayes factor is proposed. Concerning dating in archaeology, a methodology is developed to estimate ages in the presence of outliers. This is based on an existing Bayesian model (Event Model) from which an outlier detection test is developed. This methodology is applied in the combination of measurements and in the estimation of an OSL age (Optically Stimulated Luminescence)
APA, Harvard, Vancouver, ISO, and other styles
23

Cornec, Matthieu. "Inégalités probabilistes pour l'estimateur de validation croisée dans le cadre de l'apprentissage statistique et Modèles statistiques appliqués à l'économie et à la finance." Phd thesis, Université de Nanterre - Paris X, 2009. http://tel.archives-ouvertes.fr/tel-00530876.

Full text
Abstract:
L'objectif initial de la première partie de cette thèse est d'éclairer par la théorie une pratique communément répandue au sein des practiciens pour l'audit (ou risk assessment en anglais) de méthodes prédictives (ou prédicteurs) : la validation croisée (ou cross-validation en anglais). La seconde partie s'inscrit principalement dans la théorie des processus et son apport concerne essentiellement les applications à des données économiques et financières. Le chapitre 1 s'intéresse au cas classique de prédicteurs de Vapnik-Chernovenkis dimension (VC-dimension dans la suite) finie obtenus par minimisation du risque empirique. Le chapitre 2 s'intéresse donc à une autre classe de prédicteurs plus large que celle du chapitre 1 : les estimateurs stables. Dans ce cadre, nous montrons que les méthodes de validation croisée sont encore consistantes. Dans le chapitre 3, nous exhibons un cas particulier important le subagging où la méthode de validation croisée permet de construire des intervalles de confiance plus étroits que la méthodologie traditionnelle issue de la minimisation du risque empirique sous l'hypothèse de VC-dimension finie. Le chapitre 4 propose un proxy mensuel du taux de croissance du Produit Intérieur Brut français qui est disponible officiellement uniquement à fréquence trimestrielle. Le chapitre 5 décrit la méthodologie pour construire un indicateur synthétique mensuel dans les enquêtes de conjoncture dans le secteur des services en France. L'indicateur synthétique construit est publié mensuellement par l'Insee dans les Informations Rapides. Le chapitre 6 décrit d'un modèle semi-paramétrique de prix spot d'électricité sur les marchés de gros ayant des applications dans la gestion du risque de la production d'électricité.
APA, Harvard, Vancouver, ISO, and other styles
24

Lusinchi, Dominic. "La statistique appliquée : usage et signification dans les sciences sociales : essai de recherche méthodologique basé sur des études de cas aux États-Unis." Paris 8, 2008. http://octaviana.fr/document/137824084#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Cette thèse est un essai de réflexion sur l'outillage statistique à la disposition des chercheurs dans les sciences sociales. Les derniers trente ans ont connu un développement considérable des techniques statistiques, tant numériques que graphiques, dû en grande partie à l'application de la statistique à un nombre croissant de disciplines, ainsi qu'à l'apparition, depuis à peine vingt ans, de l'ordinateur personnel. En s'appuyant sur des données réelles empruntées à diverses enquêtes ou études menées aux États-Unis, cette recherche s'efforce de montrer comment des problèmes importants soulevés dans ces travaux peuvent être résolus en faisant appel aux techniques classiques, et aussi, nouvelles de la statistique appliquée. La statistique appliquée n'est pas simplement une collection de techniques, c'est avant tout une façon de réfléchir aux données empiriques, c'est-à-dire, notamment, un moyen d'identifier les effets réels et de les séparer de ce qui est insignifiant. Cette thèse se propose de démontrer que le rôle de la statistique appliquée consiste à révéler le sens des données et à évaluer leurs limites. L'application de la statistique aux données de l'expérience constitue souvent une anticipation et un vecteur du raisonnement sociologique
This study examines the statistical tools available to social science practitioners. The last 30 years have witnessed a considerable development in statistical techniques, both numerical and graphical. This is in large part a result of the application of statistical methods to an ever increasing number of fields, and also of the emergence, barely 20 years ago, of the personal computer. Using real data from surveys and other studies conducted in the U. S. , this research will show how important problems that arise in empirical data can be tackled by relying on well-known as well as relatively recent statistical techniques. Applied statistics is not simply an array of procedures; it is above all a way of thinking about empirical data, specifically how to discriminate between real and chance effects. This research endeavors to show that the role of applied statistics is to reveal both the meaning of the data and their limitations. The application of statistical methods to empirical data can often act as a catalyst to stimulate the sociological imagination
APA, Harvard, Vancouver, ISO, and other styles
25

Gerville-Réache, Léo. "Analyse statistique de modèles probabilistes appliqués aux processus sociaux." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10606.

Full text
Abstract:
Les domaines d'application de la statistique mathématique sont de plus en plus nombreux ainsi que les méthodes d'analyse mises en oeuvre. Motivé, tant par des collaborations effectives que par des considérations théoriques, ce travail est construit autour de sept thèmes. Le premier chapitre regroupe trois études. Les loteries et plus particulièrement le loto, souvent donné comme exemple en combinatoire, est l'objet d'une étude basée sur plus d'une année de résultats. Une collaboration avec des chercheurs de l'institut d'oenologie nous a conduit à étudier le pouvoir prédictif de la concentration de substances chimiques sur l'âge de vins de porto. Enfin, avec la complicité du gan de Bordeaux, nous avons analysé le modèle de Makeham et construit un test d'ajustement du khi-deux pour une hypothèse simple et composée. Le deuxième chapitre présente les deux outils d'expertise sociale que nous avons mis en place à la caf de la gironde. Basé sur l'adaptation des chaines de Markov et de la régression logistique à l'analyse quantitative des risques sociaux, le premier outil est informatique. Le problème de la pondération d'experts pour une prise de décision optimale fait l'objet, dans une optique qualitative, du deuxième outil. Le troisième chapitre compare les estimations paramétriques et non paramétriques de la fonction de fiabilité du modèle standard de vie accélérée. L'étude des propriétés asymptotiques des estimateurs paramétriques ainsi que leurs simulations numériques ont été réalisées. Le dernier chapitre reprend le problème de l'estimation d'une fonction observée en addition avec un bruit stationnaire. A l'aide de techniques de projection, nous établissons, entre autre, une nouvelle condition suffisante d'optimalité de l'estimateur des moindres carrés.
APA, Harvard, Vancouver, ISO, and other styles
26

Bergman, Jacques. "La méthode des modules fonctionnels appliquée à la détermination du coût d'un investissement : cas des unités pétrochimiques." Dijon, 1987. http://www.theses.fr/1987DIJOE002.

Full text
Abstract:
L'analyse des methodes statistiques "d'analyse de donnees" a un large echantillonnage d'informations, obtenus soit directement 0 partir de sources de renseignements prives, soit en ayant recours 0 un logiciel de dimensionnement et d'estimation detailles a permis la mise au point d'une methode d'evaluation du cout d'un investissement developpee sous le nom de "methodes des modules fonctionnels". Apres avoir situe cette methode dans l'evolution historique des theories et des methodes d'evaluation des couts d'investissement, les supports informatiques necessaires à sa mise en oeuvre sont presentés. Les techniques d'echantillonnage, d'analyse des donnees sont décrites. Cette methode est appliquee à l'evaluation du cout d'une unite d'hydrocraquage du kerosene
The use of advanced statistical multivariate "data-analysis" technique for a large set of process data, obtained by a computer design procedure and by private IFP data, has led to a new rapide method of capital cost estimated for chemical plants. In the past a whole family of shortcut methods, using a modular approach has been conceived. Nevertheless the undertaking of an integrated project with extensive use of techniques such as principal component analysis, principales factor analysis and multiple linear regression together with modular principles and cost structure philosophy, seems not to have been made thusfar. We chose, as in the detailed IFP evaluating method, to maintain the modular approach model, changing only the conception of the chemical processing block. There a functional approach led to the concept of functional modules based mainly on the basic concept of unit operation. Otherwise for each functional module prior statistical analysis highligted the appropriate set of correlating variables regarding more than one hundred possible configurations. This procedure ensured a remarkable flexibility when the final correlating model was developped. The general nature of this work is heightened by a set of factors, ensuring a choice of materials compatible with the involved products specification. The application of these elements to a large set of process data has enable us to obtain a more reliable and rapid methodology of capital-cost forecasting. All that needs to be used is a basic flow-sheet indicating : the nature of the products to be treated, both the functional modules and their operational conditions and a material balance detailing the main streams. Results will be presented by monographs or by a set of equations, geard for pocket-calculator programs. Devised for use mainly in the early stages of process development, where a detailed equipment configuration is not available, the method has nevertheless shown good accuracy for detailed process estimating
APA, Harvard, Vancouver, ISO, and other styles
27

Rousseau, Vanessa. "Modèles fragilisés de survie relative appliqués aux données censurées dans le cas de la transplantation rénale." Montpellier 1, 2008. http://www.theses.fr/2008MON1T012.

Full text
Abstract:
L'analyse des données de survie permet une meilleure connaissance des pathologies et s'intéresse particulièrement au délai d'apparition d'un événement au cours du temps, le plus souvent le décès. Un problème majeur dans l'analyse de survie est de mesurer la part des décès imputables à la pathologie étudiée. Ce problème est souvent lié au manque d'information sur les causes de décès du fait de l'imprécision des certificats de décès ou de la faible fréquence des autopsies. Ainsi, une approche permettant d'estimer la survie spécifique à la pathologie étudiée sans nécessité de connaître l'information sur la cause de décès est proposée. Il s'agit de la survie relative. Par ailleurs, une hypothèse fondamentale en analyse de survie est que la population étudiée est homogène. Or, dans certaines situations, lorsque les données concernent, par exemple, des jumeaux, des familles ou des évènements répétés sur un même patient, cette hypothèse est remise en cause. Dans ce cas, la fragilité offre un moyen de modéliser la dépendance des individus appartenant à un même groupe. Cette dépendance non mesurable est souvent causée par des facteurs environnementaux ou génétiques. De plus, une autre hypothèse souvent faite dans les modèles de survie est celle de l'indépendance entre le délai de survenue de l'évènement et le délai de survenue de la censure. Dans certaines situations telles que les censures non planifiées ou non administratives, cette hypothèse n'est pas valable. Pour cela, un modèle multi-états considérant le décès et la censure comme des états absorbants est utilisé pour rendre la censure informative. Les différentes méthodes sont appliquées à la bases DIVAT des transplantés rénaux.
APA, Harvard, Vancouver, ISO, and other styles
28

Salzenstein, Fabien. "Modele markovien flou et segmentation statistique non suupervisee d'images." Rennes 1, 1996. http://www.theses.fr/1996REN10194.

Full text
Abstract:
La premiere partie de ce memoire traite de la comparaison, en segmentation statistique non supervisee d'images, des methodes locales et des methodes globales basees sur l'hypothese des champs ou des chaines de markov. Nous cherchons une solution automatique au probleme du choix de la methode la mieux adaptee aux donnees en presence, a partir d'un ensemble de parametres caracterisant l'image observee: correlation moyenne du bruit, homogeneite, forme du bruit gaussien. L'algorithme de choix est valide par des simulations effectuees sur des images de synthese. Pour un nombre de classes donne, il parait possible de departager les algorithmes en concurrence, la forme du bruit exercant peu d'influence sur la decision finale. Un deuxieme volet de notre etude est consacre a la segmentation statistique globale non supervisee, s'appuyant sur un recent modele de champs de markov caches flous, qui permet d'inclure dans une meme image des regions dures et des regions floues. L'estimateur des parametres de lois combine une procedure du gradient stochastique et l'algorithme ice, adapte au cas de donnees incompletes. Selon la quantite de flou presente dans l'image verite-terrain, une telle approche presente un interet non negligeable, et offre un potentiel superieur a son homologue dure, base sur les champs de markov. Certaines images reelles se pretent bien au cas de deux classes thematiques, mais nous avons montre la possibilite d'extension de ce modele a un nombre de classes quelconque
APA, Harvard, Vancouver, ISO, and other styles
29

Capderou, Sami. "Estimation statistique non paramétrique appliquée à la surveillance des eaux côtières." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0128/document.

Full text
Abstract:
La protection de l’environnement, en particulier celle des systèmes aquatiques, est une des priorités de nos sociétés. L’utilisation de capteurs biologiques permettant de tester la qualité de l’eau en continue est une voie possible de surveillance intégrée des milieux aquatiques. Cette démarche a été mise en place avec succès sur des mollusques bivalves équipés d’électrodes légères qui respectent leur comportement naturel, on parle alors de valvométrie. Le but de cette thèse est de calculer et traiter automatiquement la vitesse de mouvement des valves de mollusques bivalves installés dans divers milieux aquatiques. Les années d’enregistrements déjà acquises nous permettrons, à partir de nos modèles, de détecter s’il existe des variations de la vitesse de mouvement des valves liées aux variations de température. Plus particulièrement, nous avons étudié les dérivées de différents estimateurs non paramétriques d’une fonction de régression : l’estimateur récursif de Nadaraya-Watson, l’estimateur de Johnston, l’estimateur de Wand-Jones ainsi que l’estimateur de Révész. Nous avons aussi pris en compte la version déterministe de l’estimateur de Nadaraya-Watson. Pour chacun des estimateurs nous avons mené une étude sur les comportement asymptotiques en particulier la convergence presque sûre et la normalité asymptotique. Nous avons illustré numériquement ces propriétés et appliqué ces nouvelles méthodes d’estimations sur des données réelles afin de valider, ou non, les hypothèses environnementales émises par les biologistes
The protection of the environment, in particular aquatic systems, should be tackled as one of the top priorities of our society. The use of biological sensors to continuously test water quality is a possible way of monitoring aquatic environments. This approach has been successfully implemented on bivalve molluscs equipped with light electrodes that respect their natural behaviour, we then speak of valvometry. The purpose of this thesis is to automatically calculate and process the velocity of movement of bivalve mollusc valves in various aquatic environments. Years of recordings already acquired will allow us, from our models, to detect if there are variations in the speed of movement of the valves related to temperature variations. In particular, we studied the derivatives of different non parametric estimators of the regression function : the recursive Nadaraya-Watson estimator, the Johnston estimator, the Wand-Jones estimator and the Révész estimator. We also considered the deterministic version of the Nadaraya-Watson estimator. For each of the estimators we conducted a study on the asymptotic behaviour especially on the almost sure convergence and th asymptotic normality. We digitally illustrated these properties and applied these new estimation methods to real data to validate, or not, the environmental assumptions made by biologists
APA, Harvard, Vancouver, ISO, and other styles
30

PEYRE, JEAN-LOUIS. "Statistiques d'ordre eleve appliquees a l'identification de signaux analogiques stationnaires a bande limitee." Nice, 1996. http://www.theses.fr/1996NICE4952.

Full text
Abstract:
L'identification aveugle est un des domaines du traitement du signal qui connait un veritable essor avec la prise en compte des statistiques d'ordre superieur a deux (ou statistiques d'ordre eleve: soe). Cependant, cette information statistique d'ordre eleve qui permet de realiser l'identification des systemes lineaires non gaussiens, a dephasage non minimal, non causaux ou encore non lineaires gaussiens, n'a pas toujours ete choisie de maniere tres rationnelle. Ceci nous a conduit a effectuer une etude comparative des algorithmes d'identification de la reponse impulsionnelle des systemes a resoudre, sur l'unicite et la consistance des solutions. Parallelement nous montrons que l'application des soe aux signaux analogiques, stationnaires et a bande limitee (blaposs), necessite de modifier les procedures classiques d'identification. Ainsi, pour les statistiques d'ordre trois, on montre que le bispectre d'un tel signal est nul sur une partie de son support, alors que le bispectre d'une serie temporelle ne l'est pas forcement. Il devient par consequent indispensable de se soucier des consequences de l'echantillonnage car ne considerer que le signal discret conduit a supposer non plus un signal analogique stationnaire mais cyclo-stationnaire. Nous montrons comment cette propriete peut etre utilisee dans l'estimation de temps de retard. Les demonstrations reposent sur l'etude des decompositions harmoniques des signaux analogiques puis echantillonnes, dans un contexte general. La volonte de se placer dans un contexte pratique d'identification de signaux analogiques nous a tout naturellement conduit a proposer une nouvelle procedure d'estimation des coefficients de la reponse impulsionnelle d'un systeme lineaire, dont les performances sont illustres a l'aide de resultats de simulation
APA, Harvard, Vancouver, ISO, and other styles
31

Fortier, Susie. "Structure d'association pour une statistique morphologique appliquée à une image de Voronoï." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ67270.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Crispel, Simon. "Modélisation statistique appliquée aux écoulements dispersés laminaires : mise en oeuvre et simulation." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Van, den Broeck Samuel. "Optique statistique appliquée à la granulométrie submicronique : simulation d'un signal gaussien lorentzien." Rouen, 1998. http://www.theses.fr/1998ROUES020.

Full text
Abstract:
Ce travail a pour objet de simuler le signal généré par des particules lors d'une diffusion quasi élastique de la lumière. Le but est de disposer d'un outil numérique susceptible de reproduire diverses configurations expérimentales et de pouvoir évaluer de nouvelles méthodes d'analyses du signal enregistré. La simulation proposée génère les temps d'arrivée des photoélectrons issues d'un photomultiplicateur. Nous nous sommes limités ici au cas connu théoriquement d'un ensemble de particules sphériques monodispersées. Les différentes étapes du calcul sont : 1. Génération d'un signal gaussien lorentzien à partir d'un bruit blanc filtre. Ce signal simule le champ diffusé par les particules ; 2. Génération d'un processus de poisson non homogène à partir du signal gaussien lorentzien. Ce processus simule la réponse de la photocathode à l'intensité diffusée. Le nombre de points maximum généré par fichier est de 524288 (2#1#9). La validité de la simulation est testée en comparant des statistiques de premier et de deuxième ordre du champ diffusé par les particules avec leurs valeurs initiales. La densité de probabilité des intervalles de temps des photoélectrons et la fonction d'autocorrélation du nombre de photocoups sont comparées favorablement avec leurs expressions théoriques respectives.
APA, Harvard, Vancouver, ISO, and other styles
34

Duchamps, Jean-Marc. "Apport des techniques statistiques pour l'exploitation des diagraphies instantanées en génie civil." Bordeaux 1, 1988. http://www.theses.fr/1988BOR1A635.

Full text
Abstract:
L'exploitation des diagraphies instantanees (enregistrements de parametres de forage tels que: vitesse d'avancement du train de tiges, poussee sur l'outil, couple de forage. . . ) est etudiee en premier lieu selon les techniques desormais traditionnelles que sont notamment les correlations parametres-terrains. Nous proposons ensuite, pour l'exploitation de ces diagraphies divers outils empruntes a la statistique et la geostatistique: fonction d'autocorrelation, analyse variographique, notion d'entropie. Ces outils nous permettent alors de pratiquer (sur des donnees de forages varies, en particulier ceux du chantier gauderan-naujac bordeaux) une analyse des structures geotechniques
APA, Harvard, Vancouver, ISO, and other styles
35

Létang, Jean-Michel. "Intégration temporelle et régularisation statistique appliquées à la détection d'objets mobiles dans une séquence d'images." Grenoble INPG, 1993. http://www.theses.fr/1993INPG0149.

Full text
Abstract:
Cette these traite de la detection d'objets mobiles en imagerie monoculaire. La premiere partie expose la problematique de l'analyse du mouvement dans des applications reelles. Nous proposons une methodologie robuste vis-a-vis des perturbations frequemment rencontrees lors de l'acquisition de scenes en exterieur. Nous degageons trois directions de recherches qui mettent en relief l'importance de l'axe temporel, dimension privilegiee en analyse du mouvement. Dans une premiere partie, la sequence d'images est assimilee a un faisceau de signaux temporels. La decomposition multiechelle temporelle mise en uvre permet de caracteriser les differents comportements dynamiques presents dans la scene a un instant donne. Un deuxieme module integre l'information de mouvement. Cette trajectographie elementaire des objets mobiles permet d'obtenir une carte de prediction temporelle, donnant un indice de confiance sur la presence d'un mouvement. Les interactions entre ces deux types de donnees sont exprimees au sein d'une regularisation statistique. La modelisation par champs de markov fournit un cadre formel pour traduire des connaissances a priori sur les primitives a evaluer. Une methode de calibrage par boites qualitatives est presentee pour estimer les parametres de ce modele. Notre approche se ramene a des calculs simples et conduit a une algorithmie relativement rapide, que nous evaluons en derniere partie sur des sequences variees typiques
APA, Harvard, Vancouver, ISO, and other styles
36

Nouvellet, Adrien. "Avancées récentes en traitement statistique du signal appliquées à l'estimation et la détection d'ondes infrasonores." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0011/document.

Full text
Abstract:
Le coeur de cette thèse fait l'objet du traitement de signaux infrasonores et plus particulièrement de l'estimation et de la détection à l'aide d'un réseau de capteurs. Les thèmes abordés ici sont propices à l'expérimentation et nous avons essayé, autant que possible, d'illustrer les résultats théoriques obtenus à l'aide de données réelles. La première partie vise à décrire les implications et les difficultés liées à la détection de sources infrasonores. La littérature offrent déjà de nombreuses techniques de détection basées sur le test d'hypothèses qui sont alors exposées et complétées dans une optique de détection automatique. La seconde partie de cette thèse met en avant les erreurs de l'estimation de l'angle d'arrivée d'une onde lorsque les altitudes des capteurs d'une station sont ignorées (approximation courante). En réponse à ce problème, une estimation basée sur la géométrie complète de la station et comportant un a priori sur la vitesse de l'onde est dérivée et étudiée. L'estimation mentionnée ci-dessus permet de significativement améliorer les performances. Dans la troisième partie, nous introduisons la modélisation du signal infrasonore par un processus stationnaire de type autoregressif. Cette modélisation permet ensuite de développer une approche séquentielle pour la détection infrasonore basée sur le beamforming et la détection de hangement abrupte. La dernière partie de ce manuscrit a pour but de proposer un modèle "signal'' alternatif au modèle de retard pur. Il est présenté de nouveaux résultats mettant en avant un phénomène de perte de cohérence des signaux enregistrés par différents capteurs. Ces travaux aboutissent sur l'élaboration de méthodes de simulations de signaux synthétiques réalistes pour l'étude des performances des détecteurs infrasonores
The core of this thesis is the infrasound signal processing and particularly the estimation and detection using a sensor array. The themes presented here are well-suited to experimentation and we tried, as much as possible, to illustrate the theoretical results with real data. The first part describes the implications and difficulties of infrasonic detection. We review the state-of-the-art of detection techniques based on hypothesis testing and supplement them with the aim of automatic detection. The second part of this thesis highlights the error on the angle of arrival estimation due to considering the arrays as planar (common approximation). In response to this problem, a new estimator considering the full geometry of the array and including an a priori on the speed of the infrasonic wave is derived and studied. We show that the described estimator significantly improve performance. The third part introduces the modeling of infrasonic signal as autoregressive process. This modeling allows us to derived a sequential approach to detect infrasound based on the beamforming and the detection of abrupt changes. The last part of this manuscript aims to propose an alternative "signal'' model. We present new results highlighting a phenomenon of loss of coherence of the signals recorded by different sensors. This work leads to the generation of synthetic infrasonic signal in order to study the performance of the detection algorithms
APA, Harvard, Vancouver, ISO, and other styles
37

Thibaudeau, Christian. "Développement d'algorithmes de reconstruction statistique appliqués en tomographie rayons-X assistée par ordinateur." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1539.

Full text
Abstract:
La tomodensitométrie (TDM) permet d'obtenir, et ce de façon non invasive, une image tridimensionnelle de l'anatomie interne d'un sujet. Elle constitue l'évolution logique de la radiographie et permet l'observation d'un volume sous différents plans (sagittal, coronal, axial ou n'importe quel autre plan). La TDM peut avantageusement compléter la tomographie d'émission par positrons (TEP), un outil de prédilection utilisé en recherche biomédicale et pour le diagnostic du cancer. La TEP fournit une information fonctionnelle, physiologique et métabolique, permettant la localisation et la quantification de radiotraceurs à l'intérieur du corps humain. Cette dernière possède une sensibilité inégalée, mais peut néanmoins souffrir d'une faible résolution spatiale et d'un manque de repère anatomique selon le radiotraceur utilisé. La combinaison, ou fusion, des images TEP et TDM permet d'obtenir cette localisation anatomique de la distribution du radiotraceur. L'image TDM représente une carte de l'atténuation subie par les rayons-X lors de leur passage à travers les tissus. Elle permet donc aussi d'améliorer la quantification de l'image TEP en offrant la possibilité de corriger pour l'atténuation. L'image TDM s'obtient par la transformation de profils d'atténuation en une image cartésienne pouvant être interprétée par l'humain. Si la qualité de cette image est fortement influencée par les performances de l'appareil, elle dépend aussi grandement de la capacité de l'algorithme de reconstruction à obtenir une représentation fidèle du milieu imagé. Les techniques de reconstruction standards, basées sur la rétroprojection filtrée (FBP, filtered back-projection), reposent sur un modèle mathématiquement parfait de la géométrie d'acquisition. Une alternative à cette méthode étalon est appelée reconstruction statistique, ou itérative. Elle permet d'obtenir de meilleurs résultats en présence de bruit ou d'une quantité limitée d'information et peut virtuellement s'adapter à toutes formes de géométrie d'acquisition. Le présent mémoire se consacre à l'étude de ces algorithmes statistiques en imagerie TDM et à leur implantation logicielle. Le prototype d'imageur TEP/TDM basé sur la technologie LabPET[indice supérieur TM] de l'Université de Sherbrooke possède tous les pré-requis pour bénéficier de ces nombreux avantages.
APA, Harvard, Vancouver, ISO, and other styles
38

Décoste, Anne-Marie. "Méthodes non paramétriques appliquées à l'échantillonnage optimal à réponses partielles." Sherbrooke : Université de Sherbrooke, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
39

Rose, Anaïg Le Néel Tanguy. "Appliquer la maîtrise statistique des procédés à la fabrication de comprimés pelliculés." [S.l.] : [s.n.], 2005. http://theses.univ-nantes.fr/thesemed/PHrose.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Cloutier, Jacinthe. "Adéquation du modèle de socialisation à la consommation appliquée au domaine de l'épargne et invariance selon le mode de collecte de données." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28438/28438.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Van, Der Baan Mirko. "Deux méthodes d'interférence statistique appliquées aux données de sismique réflexion profonde : détection de signaux et localisation d'onde." Grenoble 1, 1999. https://tel.archives-ouvertes.fr/tel-00745500.

Full text
Abstract:
L'objectif de toute acquisition de donnees geophysiques est d'obtenir une image plus precise de l'interieur de la terre. Afin de preciser cette image, on utilise principalement des methodes d'inference deterministe ayant comme but de fournir une description exacte de chaque detail particulier. Contraire aux methodes deterministes, les approches statistiques n'essaient de saisir que les caracteristiques principales de l'ensemble des details. Ceci reduit la complexite mathematique, nous permettant ainsi de mieux etudier certains phenomenes physiques. De plus, elles peuvent nous aider a sonder la terre a une echelle plus petite que la resolution des methodes deterministes. Finalement, elles peuvent nous fournir une appreciation de vraisemblance, nous aidant ainsi a prendre des decisions ou a reconnaitre des signaux. Dans ce memoire, nous avons utilise ces 3 avantages sur 2 problemes differents. D'abord, nous les avons employes afin d'augmenter le rapport signal sur bruit en detectant des reflexions dans des donnees de sismique reflexion profonde d'une faible qualite. Ceci nous a permis de faciliter l'interpretation du profil considere. Deux methodes differentes ont ete considerees, celle dite classification par vraisemblance maximale et celle des reseaux de neurones. Ensuite, nous les avons utilises afin d'etudier le processus de la diffusion forte dans un milieu acoustique, stratifie et aleatoire. Afin d'etudier ce probleme, nous avons applique la theorie de la localisation d'onde predisant l'attenuation apparente et la dispersion d'une impulsion traversant un tel milieu. Cette theorie nous a aussi permis d'estimer la magnitude et la dimension typiques des fluctuations des vitesses et le facteur de qualite de l'attenuation intrinseque sous le bassin de mauleon dans les pyrenees occidentales. Ceci nous a montre que la croute superieure y est plus heterogene et plus attenuante que la croute inferieure et que les dimensions typiques y sont plus petites.
APA, Harvard, Vancouver, ISO, and other styles
42

Mallet, Cécile. "Modélisation statistique appliquée à la propagation atmosphérique des ondes électromagnétiques et à l'observation des précipitations." Habilitation à diriger des recherches, Université de Versailles-Saint Quentin en Yvelines, 2009. http://tel.archives-ouvertes.fr/tel-00672039.

Full text
Abstract:
Dans la troposphère, le rayonnement électromagnétique hyperfréquence interagit avec la matière suivant trois processus : l'absorption par les molécules de gaz et d'eau, la diffusion due à la redirection de l'onde par les hydrométéores, et l'émission par les particules absorbantes d'un rayonnement naturel incohérent. Mes travaux ont pour base commune ces processus d'interaction des ondes électromagnétiques avec l'atmosphère, et concernent deux domaines distincts : la télédétection spatiale de l'atmosphère et les télécommunications Terre-satellite. J'ai développé une méthodologie originale de mise au point d'algorithmes neuronaux pour l'observation de l'atmosphère à partir de capteurs hyperfréquences passifs. Mes travaux ont mis en évidence la capacité des réseaux de neurones à restituer les paramètres physiques des phénomènes sous-jacents aux observations. Une amélioration des performances globales de la restitution des grandeurs atmosphériques est obtenue grâce à la modélisation de relations non linéaires que permet cette approche. Les perspectives multiples qu'offrent, en géophysique, l'emploi d'une architecture neuronale modulaire, ou l'utilisation des cartes de Kohonen, sont soulignées. L'évolution des systèmes de télécommunication hyperfréquence par satellites, pousse à utiliser des fréquences de plus en plus élevées. Aux fréquences supérieures à 20 GHz l'atmosphère est à l'origine de la dégradation de la qualité des liaisons. Je présenterai les campagnes de mesures, et les travaux de modélisation réalisés, dans le cadre de la mise au point de nouvelles techniques de lutte contre les affaiblissements (Fade Mitigation Technique). L'originalité de mes recherches relatives à la modélisation du canal de propagation réside dans l'usage de modélisations statistiques du type TARIMA GARCH, qui s'attachent, plutôt que de prévoir le comportement moyen du processus, à prévoir la variabilité et donc le risque d'un comportement extrême.
APA, Harvard, Vancouver, ISO, and other styles
43

Georges, Karine. "Méthode de traitement statistique appliquée à l'exoscopie des quartz : Environnements fluviaux et littoraux de Provence." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX10040.

Full text
Abstract:
Après quelques considérations sur les processus géochimiques de solubilité de la silice et un état des connaissances acquises en exoscopie, nous avons mis en oeuvre une approche nouvelle d'échantillonage et de traitement analytique définie par : le prélèvement de 10 échantillons d'1 kg par unité sédimentaire ; un montage des plots sur 300 grains par échantillon. En milieu fluvial, la caractérisation exoscopique de la charge de fond et en suspension du Rhône deltai͏̈que fait apparaître des apports sédimentaires hérités (éoliens, pédogénétiques, marins, deltai͏̈ques) et des grains de quartz marqués par des impacts fluvatiles rattachés à des épisodes de grandes crues d'une durée prolongée. En milieu littoral, nous avons identifié les caractéres génomorphiques de roches "source" (granites, gneiss, rhyolites, arkoses) alimentant nos deux plages varoises. Sur ces plages, les analyses montrent une interaction entre le domaine émergé et immergé, et une influence fluviatile notable. L'ensemble de ces caractères exoscopiques regroupés dans un tableau de synthèse a servi à la conception de programmes statistiques de traitement semi-automatique de nos données.
APA, Harvard, Vancouver, ISO, and other styles
44

Lefieux, Vincent Carbon Michel Delacroix Michel. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles cas de la consommation d'électricité /." Rennes : Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00179866/fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Lepage, Maude. "La corrélation appliquée dans un contexte bayésien." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27717/27717.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

COURILLEAU, EMMANUEL. "Analyse statistique de donnees routieres appliquee au developpement de modele de gestion de l'entretien." Clermont-Ferrand 2, 1997. http://www.theses.fr/1997CLF21934.

Full text
Abstract:
Les chaussees se degradent sous les effets combines du trafic et du climat. Elles doivent donc etre entretenues. Le budget alloue a l'entretien etant limite, toutes les sections necessitant un entretien ne feront pas l'objet de travaux. Pour determiner la meilleure strategie d'entretien des routes, il faut etre capable d'evaluer l'effet du report des travaux sur les sections non entretenues. L'objectif de cette etude est de mettre au point une methodologie de construction des lois d'evolution des degradations permettant d'evaluer l'etat de la chaussee a moyen terme en l'absence de travaux. Pour resoudre ce probleme, une approche mixte, composee d'une approche mecanique et d'une approche empirique, est developpee pour la fissuration transversale sur les chaussees semi-rigides non entretenues. Une analyse du comportement mecanique de la chaussee et des mecanismes de degradation permet d'identifier les parametres influencant le developpement des degradations. Une analyse statistique, prenant en compte ces parametres, est realisee a partir de deux bases de donnees disponibles au lcpc. Plusieurs methodes statistiques sont utilisees : les lois de survie, le modele de cox et les chaines de markov. Les deux premieres permettent de traiter les donnees dites censurees, a savoir, les sections sur lesquelles l'age du franchissement du taux de degradation n'est pas connu exactement et pour lesquelles seules des bornes sont disponibles. De plus, elles permettent de prendre en compte les changements de parametres comme le trafic. Apres une analyse des qualites predictives des trois methodes pour la fissuration transversale sur les chaussees semi-rigides non entretenues, la methode des lois de survie est retenue. Un intervalle de confiance autour de la loi d'evolution est ensuite determine. La methode est appliquee a d'autres types de degradations. On montre qu'il est indispensable de disposer d'une base de donnees pertinente et de qualite.
APA, Harvard, Vancouver, ISO, and other styles
47

Bérubé, Valérie. "Modèles avancés en régression appliqués à la tarification IARD." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24329/24329.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Lefieux, Vincent. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles : cas de la consommation d’électricité." Phd thesis, Rennes 2, 2007. https://theses.hal.science/tel-00179866/fr/.

Full text
Abstract:
Une prévision correcte de la consommation d’électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d’Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d’un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA. Dans l’idée d’obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d’un prédicteur nonparamétrique résiste mal à un grand nombre de variables explicatives, ce qu’on appelle communément le fléau de la dimension. On a proposé récemment des méthodes semi-paramétriques d’estimation d’une régression qui améliorent l’approche non-paramétrique pure. L’une d’elles, basée sur la notion de ”directions révélatrices” appellée MAVE (Moving Average -conditional- Variance Estimation), peut s’appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d’une série temporelle autorégressive. Nous adaptons ensuite cette méthode, d’un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l’aspect autorégressif du problème, et l’introduction de variables exogènes. La procédure d’estimation proposée se révèle efficace en pratique
Réseau de Transport d’Electricité (RTE), in charge of operating the French electric transportation grid, needs an accurate forecast of the power consumption in order to operate it correctly. The forecasts used everyday result from a model combining a nonlinear parametric regression and a SARIMA model. In order to obtain an adaptive forecasting model, nonparametric forecasting methods have already been tested without real success. In particular, it is known that a nonparametric predictor behaves badly with a great number of explanatory variables, what is commonly called the curse of dimensionality. Recently, semiparametric methods which improve the pure nonparametric approach have been proposed to estimate a regression function. Based on the concept of ”dimension reduction”, one those methods (called MAVE : Moving Average -conditional- Variance Estimate) can apply to time series. We study empirically its effectiveness to predict the future values of an autoregressive time series. We then adapt this method, from a practical point of view, to forecast power consumption. We propose a partially linear semiparametric model, based on the MAVE method, which allows to take into account simultaneously the autoregressive aspect of the problem and the exogenous variables. The proposed estimation procedure is practicaly efficient
APA, Harvard, Vancouver, ISO, and other styles
49

Pons, Isabelle. "Méthodes de segmentation bayésienne appliquées aux images SAR : théorie et mise en oeuvre." Nice, 1994. http://www.theses.fr/1994NICE4714.

Full text
Abstract:
Les images obtenues par un SAR (Synthetic Aperture Radar) sont très différentes des données optiques couramment utilisées en télédétection. Elles sont bruitées par le speckle qui donne un aspect poivre et sel à l'image et complique son exploitation. La recherche d'une méthode de segmentation adaptée aux images SAR nous a conduit à envisager une approche bayésienne. La segmentation bayésienne repose sur une modélisation statistique de l'image au niveau de la distribution du signal ainsi qu'une modélisation de l'image des régions. La modélisation de l'image à segmenter permet donc de considérer les statistiques liées à l'image et prendre en compte la grande variabilité spatiale due au speckle. La théorie markovienne associée à la modélisation de l'image des régions introduit un modèle de dépendance entre pixels voisins et permet d'orienter la classification vers une recherche de régions. Nous avons tout d'abord exposé en détail les hypothèses liées à ces concepts (distribution du signal, segmentation bayésienne, champ de Markov) et nous avons présenté la théorie et les algorithmes associes de façon unifiée. La complexité de réalisation nous a conduit à proposer, dans un objectif opérationnel sur la totalité d'une image (3000*3000), l'introduction d'une phase d'apprentissage. Différentes options pour la modélisation de l'image ont été retenues. Ces algorithmes ont ensuite été appliqués sur des images sar différentes : une image SAR aéroportée sur le Jura et deux images ERS-1 sur la Guinée pour lesquelles nous disposions des données terrains. Les résultats obtenus ont été comparés par rapport à une réalité terrain et analyses. Globalement, le gain des classifications obtenues par nos algorithmes, par rapport à une classification pixel par pixel, est significatif. Ces bons résultats montrent l'intérêt de ce type d'approche pour obtenir une classification (pas de filtrage préalable, intégration des statistiques, approche par région) et nous avons établi, parmi, parmi les diverses options explorées, un algorithme efficace
APA, Harvard, Vancouver, ISO, and other styles
50

Grelaud, Aude. "Méthodes sans vraisemblance appliquées à l'étude de la sélection naturelle et à la prédiction de structure tridimensionnelle des protéines." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography