To see the other types of publications on this topic, follow the link: Analyse statistique de code.

Dissertations / Theses on the topic 'Analyse statistique de code'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse statistique de code.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Lyon 1, 1987. http://www.theses.fr/1987LYO19034.

Full text
Abstract:
Une description statistique des regions des genomes codant pour les proteines (les "parties codantes") est presentee. La methodologie utilise a la fois une modelisation de l'information et des outils de description. Les schemas entite-association constituent un outil de representation des relations logiques entre des jets biologiques. La description des sequences a utilise essentiellement des methodes multivariees et des statistiques non parametriques. Ces analyses montrent l'existence de biais importants dans l'usage du code ainsi que dans certaines relations de voisinage entre bases. Ces biais peuvent s'interpreter, au moins en partie, comme resultant de contraintes liees aux differents processus moleculaires auxquels participent ces sequences. Chez e. Coli, le processus de traduction a ete clairement mis en cause. Une repercussion de ces contraintes sont la nature de la proteine codee a pu etre mise en evidence dans plusieurs cas. L'observation de biais tres differents dans des sequences homologues (en particulier mitochondrial) a permis de discuter de la stationnarite du processus evolutif
APA, Harvard, Vancouver, ISO, and other styles
2

Durand, Pascal. "Modélisation de brouillards de gouttelettes par une approche statistique." Rouen, 1998. http://www.theses.fr/1998ROUES023.

Full text
Abstract:
Un modèle numérique, basé sur une approche de type fonction densité de probabilité, a été développé pour calculer le mélange turbulent intervenant au sein des brouillards de gouttelettes se vaporisant. Ce sous modèle est basé sur la simulation stochastique de type Monte Carlo d'une équation de transport de la PDF jointe liquide-gaz prenant en compte aussi bien le mélange air-fuel vapeur à grande échelle que l'effet de la turbulence à petite échelle. Cette dernière est causée par le transport moléculaire dans le champ turbulent, lui-même perturbe par la dynamique aléatoire des gouttes se vaporisant. L'interaction vaporisation-micromélange est traitée par un processus modifié de coalescence-redispersion où l'on a introduit une partie laminaire au mélange. Le sous modèle a été incorporé au code de calcul tridimensionnel Kiva II. L'analyse de la structure fluctuante du champ de fuel vapeur a montré des distributions discontinues de fraction massique et de température dans les zones où les gouttes ne sont pas entièrement vaporisées. Les distributions locales sont très différentes de celles habituellement supposées par les modèles classiques qui supposent la vapeur parfaitement mélangée dans la maille. L'application de ce modèle au cas Diesel montre un bon comportement en terme de prédiction des champs de concentrations et de dégagement de chaleur. Le modèle de PDF permet d'obtenir des informations détaillées sur les sites probables d'auto-allumage, sur les domaines occupes par le fuel vapeur et sur les zones de combustion. Dans la configuration moteur-fusée, la méthode permet d'obtenir une hauteur d'accrochage au proche voisinage de l'injecteur, comme l'a montré l'expérience, contrairement au modèle EBU. La dynamique aléatoire de la phase liquide contribue fortement au champ de fluctuations de température, très intense dans la zone de stabilisation moyenne de la flamme.
APA, Harvard, Vancouver, ISO, and other styles
3

Ahmed, Ahmed. "Identification et analyse des signaux de codes circulaires dans les gènes par des méthodes bioinformatiques." Strasbourg, 2010. http://www.theses.fr/2010STRA6001.

Full text
Abstract:
En étudiant la structure nucléotidique des 3 phases des gènes, il a été constaté dans des travaux antérieurs que la distribution des trinucléotides dans ces 3 phases n’est pas aléatoire et que chaque trinucléotide apparait préférentiellement dans l’une des 3 phases (phase d'occurrence préférentielle). Trois ensembles de trinucléotides ont ainsi été identifiés représentant les trinucléotides ayant respectivement comme phase d’occurrence préférentielle les phases 0, 1 ou 2. Ces 3 ensembles ont des propriétés biomathématiques étonnantes et rares, en particulier celle de code circulaire qui permet de retrouver chacune des 3 phases d'un gène localement, en particulier la phase de lecture sans codon d’initiation, et automatiquement avec une fenêtre de quelques nucléotides. Les 3 ensembles sont nommés de façon abrégée « code circulaire commun ». L’objectif de notre travail de recherche est d’identifier et d’analyser les signaux associés au code circulaire commun dans diverses familles de gènes. Ces familles de gènes ont été choisies car leurs structures primaires ou leurs fonctions cellulaires devrait avoir une relation avec des propriétés du code circulaire commun. En utilisant l’information du code circulaire commun, une liste des fonctions cellulaires essentielles a été étudiée et identifiée d’une manière indépendante de l’espèce d’appartenance. Cette étude a permis également d’étudier l’évolution et la stabilité du code circulaire commun. Ce code a été étudié également dans 2 familles de gènes spéciaux : les micro ARN et les gènes à phase décalée. Cette étude a permis d’identifier de nouvelles propriétés structuraux permettent une meilleurs identification de ces gènes
A previous study of the structure of nucleotides in the 3 frames of genes has shown that the trinucleotide distribution in the 3 frames is not random and that each trinucleotide occurs preferentially in one of the 3 frames. Hence, 3 sets of trinucleotides have been identified representing the trinucleotides with a preferential frame 0, 1 or 2. Those 3 sets have shown exceptional bio-mathematical properties, in particular the circular code property which allows identifying automatically the 3 frames locally in a gene without knowledge of the start codon. Those sets are called the common circular code. The objective of our thesis is to identify and analyze signals of the common circular code in different gene families. Those gene families are chosen because either their primary structures or their biological functions have a link with one of the common circular code properties. By using the circular code information, a list of the essential cellular functions has been studied and identified in a species independent manner. This study has also allowed studying the common circular code evolution and stability. The common circular code has also been studied in 2 special gene families: the micro RNAs and the frameshift genes. This study allowed the identification of new structural properties that led to a better identification of those genes
APA, Harvard, Vancouver, ISO, and other styles
4

Gouy, Manolo Emmanuel. "Origine et fonction de l'utilisation de la dégénérescence du code génétique chez Escherichia coli structuration en banque de données et analyse statistique des séquences nucléotidiques /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605748h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gouy, Manolo. "Origine et fonction de l'utilisation de la dégénérescence du code génétique chez Escherichia coli : structuration en banque de données et analyse statistique des séquences nucléotidiques." Lyon 1, 1987. http://www.theses.fr/1987LYO10052.

Full text
Abstract:
La degenerescence du code genetique pose le probleme du choix des codons synonymes dans les genes proteiques. Deux aspects de ce probleme ont ete abordes ici pour la bacterie escherichia coli. Le choix des codons a-t-il des consequences fonctionnelles. Quelles sont ses causes et son origine evolutive. Pour ce faire, on a etudie statistiquement la composition en codons des genes proteiques chez e. Coli, ses plasmides et ses phages. Les deux tendances majeures dans l'utilisation des codons chez e. Coli sont (1) la preference vers les codons correspondants aux trna isoaccepteurs majeurs, (2) la preference des codons du type ssu (s=c ou g) et des codons du type wwc sur wwu (w=a ou u). L'intensite de ces deux tendances est tres fortement correlee au degre d'expressivite des genes. Ceci indique que le choix des codons est relie a l'efficacite traductionnelle des genes. Effectivement, divers auteurs ont montre que la vitesse d'elongation de la traduction est sensible a la concentration relative des trna. Les genes de plasmides, en accord avec la grande diversite de leur origine, presentent un tres faible niveau moyen d'adaptation a la distribution cellulaire des trna. Chez les genes de phages les plus fortement exprimes, on retrouve l'adaptation a la distribution cellulaire des trna, quoique l'intensite du biais soit moindre que chez l'hote. Generalement, dans les genomes de coliphages, des structures propres a chaque virus coexistent avec une adaptation a l'hote. Au dela des biais portant sur la composition globale en codons des genes, on a etudie les relations entre codons adjacents. Dans les genes bacteriens, le contexte des codons n'est pas aleatoire. On a detecte un biais dans les dinucleotides situes a la frontiere des codons qui semble lie a l'optimisation de la traduction. On a d'autre part realise un systeme informatique permettant la consultation et l'extraction des donnees des banques de sequences nucleotidiques et proteiques. Ce systeme, nomme acnuc, est installe sur un centre serveur national, mettant ainsi trois grandes banques de donnees a la disposition de la communaute des biologistes francais. Le systeme acnuc est particulierement efficace pour la constitution d'echantillons de sequences nucleotidiques definis sur criteres biologiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Desrumaux, Frédéric. "Contribution à l'analyse micromécanique du comportement élastique endommageable de composites monolithiques et sandwichs, intégration dans un code de calculs par éléments finis." Compiègne, 2000. http://www.theses.fr/2000COMP1299.

Full text
Abstract:
La modélisation micromécanique a été le file conducteur de ce travail de thèse, grâce au modèle de Mori et Tanaka, il a permis de déterminer les caractéristiques élastiques tridimensionnelles. Le comportement des matériaux vis à vis de l'endommagement a également été intégré dans la modélisation. Des approches probabilistes ont été utilisées afin de permettre une bonne description de l'endommagement. De surcroit, cet endommagement peut avoir pour origine le renfort (les fibres), la matrice ou l'interface entre le renfort et la matrice et peut se propager à travers l'un ou l'autre de ces constituants de base. L'intégration de cette notion dans la modélisation constitue le point fort de l'outil développé. Afin de valider le modèle proposé, des essais expérimentaux (traction, compression, torsion, flexion) ont été réalisés sur des composites verre/polyester et verre/vynilester, charge ou non. Les mécanismes d'endommagement ont également pu être mis en évidence grâce à ces essais associés à des observations microscopiques (microscope à balayage électronique) et des outils de détection basés sur l'émission acoustique. Le champ d'application du modèle a également été élargi au cas des composites sandwichs et en particulier au cas des âmes tubulaires. En outre un modèle permettant de décrire le comportement d'une telle âme a été développé. Dans le but de valider ce modèle intégrant le sandwich, des campagnes d'essais ont également été menées en flexion trois et quatre points. Chacun des modèles proposés a donné lieu a la réalisation de logiciels informatiques, simples d'utilisations et conviviaux tant sur la saisie des données que sur la représentation des résultats issus des calculs. Finalement, le modèle développé a été couplé à un code de calcul par éléments finis (castem2000). Il est alors possible de déterminer l'état d'endommagement de la microstructure du composite (fibre, matrice et interface) et le tenseur élastique endommage qui en résulte, et cela en tout point du maillage d'une structure considérée. Ainsi, chaque constituant du composite peut être optimisé pour une application donnée soit par l'utilisation des logiciels développés ou directement par un calcul élément finis sous castem2000 lorsque la loi de comportement a été implantée.
APA, Harvard, Vancouver, ISO, and other styles
7

Mai, Hoang Bao An. "Analyse de performance d'un système d'authentification utilisant des codes graphiques." Thesis, Ecole centrale de Lille, 2014. http://www.theses.fr/2014ECLI0017/document.

Full text
Abstract:
Nous étudions dans cette thèse l'influence d'un système d'authentification utilisant des codes graphiques 2D modifiés lors de l'impression par un procédé physique non-clônable. Un tel procédé part du principe qu'à très haute résolution le système d'impression acquisition peut être modélisé comme un processus stochastique, de part le caractère aléatoire de la disposition des fibres de papiers, de mélange des particules d'encre, de l'adressabilité de l'imprimante ou encore du bruit d'acquisition. Nous considérons un scénario où l'adversaire pourra estimer le code original et essaiera de le reproduire en utilisant son propre système d'impression. La première solution que nous proposons pour arriver à l'authentification est d'utiliser un test d'hypothèse à partir des modèles à priori connus et sans mémoire des canaux d'impression-acquisition de l'imprimeur légitime et du contrefacteur. Dans ce contexte nous proposons une approximation fiable des probabilités d'erreur via l'utilisation de bornes exponentiels et du principe des grandes déviations. Dans un second temps, nous analysons un scénario plus réaliste qui prends en compte une estimation a priori du canal du contrefacteur et nous mesurons l'impact de cette étape sur les performances du système d'authentification. Nous montrons qu'il est possible de calculer la distribution des probabilité de non-détection et d'en extraire par exemple ses performances moyennes. La dernière partie de cette thèse propose d'optimiser, au travers d'un jeu minimax, le canal de l'imprimeur
We study in this thesis the impact of an authentication system based on 2D graphical codes that are corrupted by a physically unclonable noise such as the one emitted by a printing process. The core of such a system is that a printing process at very high resolution can be seen as a stochastic process and hence produces noise, this is due to the nature of different elements such as the randomness of paper fibers, the physical properties of the ink drop, the dot addressability of the printer, etc. We consider a scenario where the opponent may estimate the original graphical code and tries to reproduce the forged one using his printing process in order to fool the receiver. Our first solution to perform authentication is to use hypothesis testing on the observed memoryless sequences of a printed graphical code considering the assumption that we are able to perfectly model the printing process. The proposed approach arises from error exponent using exponential bounds as a direct application of the large deviation principle. Moreover, when looking for a more practical scenario, we take into account the estimation of the printing process used to generate the graphical code of the opponent, and we see how it impacts the performance of the authentication system. We show that it is both possible to compute the distribution of the probability of non-detection and to compute the average performance of the authentication system when the opponent channel has to be estimated. The last part of this thesis addresses the optimization problem of the printing channel
APA, Harvard, Vancouver, ISO, and other styles
8

Gaudan, Stéphanie. "Management des risques de fautes de conception liées aux technologies orientées objet pour leur utilisation dans les applications avioniques critiques." Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000187/.

Full text
Abstract:
Les technologies orientées objet permettent de réduire les coûts de développement d'applications logicielles. Aussi, les fournisseurs d'applications avioniques critiques souhaitent pouvoir les utiliser. Pour cela, ils doivent au préalable démontrer leur maîtrise de ces technologies auprès des autorités de certification. Un ensemble de risques intrinsèques à ces technologies a été identifié dans un document élaboré par retour d'expérience. Dans nos travaux, nous présentons un processus de management des risques permettant de maîtriser les risques de fautes de conception liées aux technologies orientées objet. Il s'agit tout d'abord d'identifier de manière précise les risques de faute que l'on souhaite maîtriser, et leurs sources. Nous proposons pour cela des modèles spécifiques d'identification de risques. Nous définissons ensuite un ensemble de métriques spécifiques permettant l'estimation de ces risques. Nous avons notamment développé des métriques permettant d'intégrer le facteur de risque de la compréhension qu'un concepteur a des éléments de code contenu dans un programme orienté objet. Nous mettons ensuite en oeuvre de manière globale l'estimation des risques au moyen de réseaux Bayésiens alimentés par analyse statique du code. L'analyse de ces réseaux permet ensuite la production de règles de codage souples, adaptées et justifiées, apportant les garanties nécessaires à la certification
Object-Oriented technologies could significantly reduce the development costs of software applications. Consequently, the suppliers of critical avionics applications are interested in using these technologies. For that purpose, they beforehand have to demonstrate their control of these technologies to the certification authorities. A set of intrinsic risks of these technologies was intuitively identified by feedback. In our works, we propose a risk management process allowing to control the design faults risks induced by the Object-Oriented technologies. We begin by identifying the risk and their sources. We propose in this way two specific models of risk identification. Then, we define a set of specific metrics in order to estimate these risks and their factors. We have particularly developed metrics allowing the integration of a key risk factor: the designer understanding of the elements of code contained in an object-oriented program. We estimate globally the fault risks by means of Bayesian Networks filled up with static analysis of the code. Finally, the networks analysis can provide flexible, adapted and justified guidelines, bringing necessary guarantees of the technologies control for the certification
APA, Harvard, Vancouver, ISO, and other styles
9

Nanty, Simon. "Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM043/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés
This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications
APA, Harvard, Vancouver, ISO, and other styles
10

Jourdan-Marias, Astrid. "Analyse statistique et échantillonage d'expériences simulées." Pau, 2000. http://www.theses.fr/2000PAUU1014.

Full text
Abstract:
De nombreux phénomènes physiques sont étudiés à l'aide de simulateurs très complexes et coûteux. Bien souvent, l'utilisateur souhaite alors disposer d'un modèle simple et rapide afin de résumer la réponse du simulateur. Il est alors nécessaire de construire un prédicteur de la réponse du code informatique à partir d'un petit nombre de simulations, que l'on appelle encore expérience simulées. A l'heure actuelle il existe 2 principales approches statistiques des expériences simulées, l'une est basée sur un modèle spatial adapté du modèle géo-statistique de krigeage, et l'autre est basée sur des techniques d'échantillonage. Chacune d'elle présente des avantages mais aussi des inconvénients. Ce travail propose une nouvelle approche statistique plus performante des exprériences simulées qui intègre les points forts des 2 approches existantes, i, e. . .
APA, Harvard, Vancouver, ISO, and other styles
11

Mahé, Cédric. "Analyse statistique de delais d'evenement correles." Paris 7, 1998. http://www.theses.fr/1998PA077254.

Full text
Abstract:
Les delais d'evenement correles sont frequemment observes dans les etudes longitudinales lorsque plus d'un evenement peut survenir chez un individu ou lorsqu'un evenement survient chez des individus regroupes en cluster. La prise en compte de la dependance entre les delais d'evenements de la meme unite statistique (l'individu ou le cluster) est necessaire pour une estimation precise et non biaisee de l'effet des covariables sur le risque d'evenement. Pour les evenements non ordonnes, un modele combinant deux generalisations multivariees du modele de cox a ete developpe afin d'estimer un effet moyen des covariables sur le risque d'evenement ainsi que la force de correlation au sein de l'unite statistique. Ce modele a ensuite ete applique a une etude de cohorte expose-non expose. Pour les evenements ordonnes (recurrents), l'apport des methodes qui prennent en compte la correlation des delais a ete presente de facon didactique. D'autre part, dans le cadre des approches multivariees, le choix de la mesure de reponse adequate a ete discute selon la structure des donnees. L'extension de ces methodes a un critere de jugement combinant les deux types d'evenements ordonnes et non ordonnes necessite des developpements ulterieurs.
APA, Harvard, Vancouver, ISO, and other styles
12

Cigana, John. "Analyse statistique de sensibilité du modèle SANCHO." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38667.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Célimène, Fred. "Analyse statistique et économétrique des DOM-TOM." Paris 10, 1985. http://www.theses.fr/1985PA100002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Olivier, Adelaïde. "Analyse statistique des modèles de croissance-fragmentation." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090047/document.

Full text
Abstract:
Cette étude théorique est pensée en lien étroit avec un champ d'application : il s'agit de modéliser la croissance d'une population de cellules qui se divisent selon un taux de division inconnu, fonction d’une variable dite structurante – l’âge et la taille des cellules étant les deux exemples paradigmatiques étudiés. Le champ mathématique afférent se situe à l'interface de la statistique des processus, de l’estimation non-paramétrique et de l’analyse des équations aux dérivées partielles. Les trois objectifs de ce travail sont les suivants : reconstruire le taux de division (fonction de l’âge ou de la taille) pour différents schémas d’observation (en temps généalogique ou en temps continu) ; étudier la transmission d'un trait biologique général d'une cellule à une autre et étudier le trait d’une cellule typique ; comparer la croissance de différentes populations de cellules à travers le paramètre de Malthus (après introduction de variabilité dans le taux de croissance par exemple)
This work is concerned with growth-fragmentation models, implemented for investigating the growth of a population of cells which divide according to an unknown splitting rate, depending on a structuring variable – age and size being the two paradigmatic examples. The mathematical framework includes statistics of processes, nonparametric estimations and analysis of partial differential equations. The three objectives of this work are the following : get a nonparametric estimate of the division rate (as a function of age or size) for different observation schemes (genealogical or continuous) ; to study the transmission of a biological feature from one cell to an other and study the feature of one typical cell ; to compare different populations of cells through their Malthus parameter, which governs the global growth (when introducing variability in the growth rate among cells for instance)
APA, Harvard, Vancouver, ISO, and other styles
15

Goulard, Michel. "Champs spatiaux et statistique multidimensionnelle." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376138909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Josse, Sébastien. "Analyse et détection dynamique de codes viraux dans un contexte cryptographique." Phd thesis, Ecole Polytechnique X, 2009. http://pastel.archives-ouvertes.fr/pastel-00005279.

Full text
Abstract:
Cette thèse est consacrée à la problématique de l'évaluation des produits antivirus. L'utilisateur final d'un produit antivirus ne sait pas toujours quelle confiance il peut placer dans son produit antivirus pour parer convenablement la menace virale. Pour répondre à cette question, il est nécessaire de formuler la problématique de sécurité à laquelle doit répondre un tel produit et de disposer d'outils et de critères méthodologiques, techniques et théoriques permettant d'évaluer la robustesse des fonctions de sécurité et la pertinence des choix de conception au regard d'une menace virale identifiée. Je concentre mon analyse de la menace virale sur quelques mécanismes (mécanismes cryptographiques, transformations de programme) adaptés au contexte boîte blanche, i.e. permettant à un virus de protéger ses données critiques en confidentialité et de masquer son fonctionnement dans un environnement complètement maîtrisé par l'attaquant. Une première étape incontournable avant toute organisation d'une ligne de défense consiste à analyser les virus, afin d'en comprendre le fonctionnement et les effets sur le système. Les méthodes et techniques de la rétro-ingénierie logicielle occupent ici - au côté des techniques de cryptanalyse - une place centrale. J'ai pris le parti de focaliser sur les méthodes dynamiques d'extraction d'information fondées sur une émulation du matériel supportant le système d'exploitation. L'évaluation d'un moteur de détection selon des critères objectifs requiert un effort de modélisation. J'étudie quelques modèles utilisés actuellement (grammaires formelles, interprétation abstraite, statistique). Chacun de ces modèles permet de formaliser certains aspects du problème de la détection virale. Je m'attache à l'étude des critères qu'il est possible de définir dans chacun de ces cadres formels et à leur utilisation pour partie des travaux d'évaluation d'un moteur de détection. Mes travaux m'ont conduit à la mise en oeuvre d'une approche méthodologique et d'une plate-forme de tests pour l'analyse de robustesse des fonctions et mécanismes d'un produit anti-virus. J'ai développé un outil d'analyse de code viral, appelé VxStripper, dont les fonctionnalités sont utiles à la réalisation de plusieurs des tests. Les outils formels sont utilisés pour qualifier en boîte blanche - ou sur la base des documents de conception détaillée - la conformité et l'efficacité d'un moteur de détection.
APA, Harvard, Vancouver, ISO, and other styles
17

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules." Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
APA, Harvard, Vancouver, ISO, and other styles
18

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
APA, Harvard, Vancouver, ISO, and other styles
19

Guillaume, Jean-Loup. "Analyse statistique et modélisation des grands réseaux d'interactions." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00011377.

Full text
Abstract:
L'étude des grands réseaux d'interactions, ou réseaux rencontrés dans des contextes pratiques, vise à expliquer les interactions entre les différents individus d'un réseau par l'étude des grandes lois le gouvernant et à comprendre les divers phénomènes pouvant se produire sur ces réseaux. Cette thèse, divisée en trois parties, est consacrée à l'étude de ces réseaux.
La première partie est centrée sur l'analyse des réseaux et fait un point critique sur les réseaux étudiés et les paramètres introduits pour mieux comprendre leur structure. Un certain nombre de ces paramètres sont partagés par la majorité des réseaux étudiés et justifient l'étude de ceux-ci de manière globale.
La seconde partie qui constitue le coeur de cette thèse s'attache à la modélisation des grands réseaux d'interactions, c'est-à-dire la construction de graphes artificiels semblables à ceux rencontrés en pratique. Ceci passe tout d'abord par la présentation des modèles existants puis par l'introduction d'un modèle basé sur certaines propriétés non triviales qui est suffisamment simple pour que l'on puisse l'étudier formellement ses propriétés et malgré tout réaliste.
Enfin, la troisième partie est purement méthodologique. Elle permet de présenter la mise en pratique des parties précédentes et l'apport qui en découle en se basant sur trois cas particuliers : une étude des échanges dans un réseau pair-à-pair, une étude de la robustesse des réseaux aux pannes et aux attaques et enfin un ensemble de simulations visant à estimer la qualité des cartes de l'Internet actuellement utilisées.
Cette thèse met en lumière la nécessité de poursuivre les travaux sur les grands réseaux d'interactions et pointe plusieurs pistes prometteuses, notamment sur l'étude plus fine des réseaux, que ce soit de manière pondérée ou dynamique. Mais aussi sur la nécessité d'étudier de nombreux problèmes liés à la métrologie des réseaux pour réussir à capturer leur structure de manière plus précise.
APA, Harvard, Vancouver, ISO, and other styles
20

Ledauphin, Stéphanie. "Analyse statistique d'évaluations sensorielles au cours du temps." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00139887.

Full text
Abstract:
Dans les industries agro-alimentaires ainsi que dans d'autres secteurs d'activités, l'analyse sensorielle est la clé pour répondre aux attentes des consommateurs. Cette discipline est le plus souvent basée sur l'établissement de profils sensoriels à partir de notes attribuées par des juges entraînés selon une liste de descripteurs (variables sensorielles). Dans ce type d'étude, il importe d'étudier la performance des juges et d'en tenir compte dans l'établissement des profils sensoriels. Dans cette perspective, nous proposons une démarche qui permet de procurer des indicateurs de performance du jury et de chacun des juges et de tenir compte de cette performance pour une détermination d'un tableau moyen. Des tests d'hypothèses pour évaluer la significativité de la contribution des juges à la détermination du compromis sont également proposés.
Depuis une vingtaine d'années, les courbes temps-intensité (TI) qui permettent de décrire l'évolution d'une sensation au cours de l'expérience sont de plus en plus populaires parmi les praticiens de l'analyse sensorielle. La difficulté majeure pour l'analyse des courbes TI provient d'un effet juge important qui se traduit par la présence d'une signature propre à chaque juge. Nous proposons une approche fonctionnelle basée sur les fonctions B-splines qui permet de réduire l'effet juge en utilisant une procédure d'alignement de courbes.
D'autres données sensorielles au cours du temps existent telles que le suivi de la dégradation organoleptique de produits alimentaires. Pour les étudier, nous proposons la modélisation par des chaînes de Markov cachées, de manière à pouvoir ensuite visualiser graphiquement la suivi de la dégradation.
APA, Harvard, Vancouver, ISO, and other styles
21

Alsheh, Ali Maya. "Analyse statistique de populations pour l'interprétation d'images histologiques." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05S001/document.

Full text
Abstract:
Au cours de la dernière décennie, la pathologie numérique a été améliorée grâce aux avancées des algorithmes d'analyse d'images et de la puissance de calcul. Néanmoins, le diagnostic par un expert à partir d'images histopathologiques reste le gold standard pour un nombre considérable de maladies notamment le cancer. Ce type d'images préserve la structure des tissus aussi proches que possible de leur état vivant. Ainsi, cela permet de quantifier les objets biologiques et de décrire leur organisation spatiale afin de fournir une description plus précise des tissus malades. L'analyse automatique des images histopathologiques peut avoir trois objectifs: le diagnostic assisté par ordinateur, l'évaluation de la sévérité des maladies et enfin l'étude et l'interprétation des mécanismes sous-jacents des maladies et leurs impacts sur les objets biologiques. L'objectif principal de cette thèse est en premier lieu de comprendre et relever les défis associés à l'analyse automatisée des images histologiques. Ensuite, ces travaux visent à décrire les populations d'objets biologiques présents dans les images et leurs relations et interactions à l'aide des statistiques spatiales et également à évaluer la significativité de leurs différences en fonction de la maladie par des tests statistiques. Après une étape de séparation des populations d'objets biologiques basée sur la couleur des marqueurs, une extraction automatique de leurs emplacements est effectuée en fonction de leur type, qui peut être ponctuel ou surfacique. Les statistiques spatiales, basées sur la distance pour les données ponctuelles, sont étudiées et une fonction originale afin de mesurer les interactions entre deux types de données est proposée. Puisqu'il a été montré dans la littérature que la texture d'un tissu est altérée par la présence d'une maladie, les méthodes fondées sur les motifs binaires locaux sont discutées et une approche basée sur une modification de la résolution de l'image afin d'améliorer leur description est introduite. Enfin, les statistiques descriptives et déductives sont appliquées afin d'interpréter les caractéristiques extraites et d'étudier leur pouvoir discriminant dans le cadre de l'étude des modèles animaux de cancer colorectal. Ce travail préconise la mesure des associations entre différents types d'objets biologiques pour mieux comprendre et comparer les mécanismes sous-jacents des maladies et leurs impacts sur la structure des tissus. En outre, nos expériences confirment que l'information de texture joue un rôle important dans la différenciation des deux modèles d'implantation d'une même maladie
During the last decade, digital pathology has been improved thanks to the advance of image analysis algorithms and calculus power. However, the diagnosis from histopathology images by an expert remains the gold standard in a considerable number of diseases especially cancer. This type of images preserves the tissue structures as close as possible to their living state. Thus, it allows to quantify the biological objects and to describe their spatial organization in order to provide a more specific characterization of diseased tissues. The automated analysis of histopathological images can have three objectives: computer-aided diagnosis, disease grading, and the study and interpretation of the underlying disease mechanisms and their impact on biological objects. The main goal of this dissertation is first to understand and address the challenges associated with the automated analysis of histology images. Then it aims at describing the populations of biological objects present in histology images and their relationships using spatial statistics and also at assessing the significance of their differences according to the disease through statistical tests. After a color-based separation of the biological object populations, an automated extraction of their locations is performed according to their types, which can be point or areal data. Distance-based spatial statistics for point data are reviewed and an original function to measure the interactions between point and areal data is proposed. Since it has been shown that the tissue texture is altered by the presence of a disease, local binary patterns methods are discussed and an approach based on a modification of the image resolution to enhance their description is introduced. Finally, descriptive and inferential statistics are applied in order to interpret the extracted features and to study their discriminative power in the application context of animal models of colorectal cancer. This work advocates the measure of associations between different types of biological objects to better understand and compare the underlying mechanisms of diseases and their impact on the tissue structure. Besides, our experiments confirm that the texture information plays an important part in the differentiation of two implemented models of the same disease
APA, Harvard, Vancouver, ISO, and other styles
22

Duvernet, Laurent. "Analyse statistique des processus de marche aléatoire multifractale." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00567397.

Full text
Abstract:
On étudie certaines propriétés d'une classe de processus aléatoires réels à temps continu, les marches aléatoires multifractales. Une particularité remarquable de ces processus tient en leur propriété d'autosimilarité : la loi du processus à petite échelle est identique à celle à grande échelle moyennant un facteur aléatoire multiplicatif indépendant du processus. La première partie de la thèse se consacre à la question de la convergence du moment empirique de l'accroissement du processus dans une asymptotique assez générale, où le pas de l'accroissement peut tendre vers zéro en même temps que l'horizon d'observation tend vers l'infini. La deuxième partie propose une famille de tests non-paramétriques qui distinguent entre marches aléatoires multifractales et semi-martingales d'Itô. Après avoir montré la consistance de ces tests, on étudie leur comportement sur des données simulées. On construit dans la troisième partie un processus de marche aléatoire multifractale asymétrique tel que l'accroissement passé soit négativement corrélé avec le carré de l'accroissement futur. Ce type d'effet levier est notamment observé sur les prix d'actions et d'indices financiers. On compare les propriétés empiriques du processus obtenu avec des données réelles. La quatrième partie concerne l'estimation des paramètres du processus. On commence par montrer que sous certaines conditions, deux des trois paramètres ne peuvent être estimés. On étudie ensuite les performances théoriques et empiriques de différents estimateurs du troisième paramètre, le coefficient d'intermittence, dans un cas gaussien
APA, Harvard, Vancouver, ISO, and other styles
23

Gautier, Christian. "Analyse statistique et évolution des séquences d'acides nucléiques." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37605346q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Garoche, Pierre-Loïc. "Analyse statistique d'un calcul d'acteurs par interprétation abstraite." Toulouse, INPT, 2008. http://ethesis.inp-toulouse.fr/archive/00000629/.

Full text
Abstract:
Le modèle des Acteurs, introduit par Hewitt et Agha à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par Colaço, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage. Par ailleurs, des travaux plus récents, effectués par Venet puis Feret, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus. Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par Feret, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits. [. . . ]
The Actor model, introduced by Hewitt and Agha in the late 80s, describes a concurrent communicating system as a set of autonomous agents, with non uniform interfaces and communicating by the use of labeled messages. The CAP process calculus, proposed by Colaço, is based on this model and allows to describe non trivial realistic systems, without the need of complex encodings. CAP is a higher-order calculus: messages can carry actor behaviors. Multiple works address the analysis of CAP properties, mainly by the use of inference-based type systems using behavioral types and sub-typing. Otherwise, more recent works, by Venet and later Feret, propose the use of abstract interpretation to analyze process calculi. These approaches allow to compute non-uniform properties. For example, they are able to differentiate recursive instances of the same thread. This thesis is at the crossroad of these two approaches, applying abstract interpretation to the analysis of CAP. Following the framework of Feret, CAP is firstly expressed in a non standard form, easing its analysis. The set of reachable states is then over-approximated via a sound by construction representation within existing abstract domains. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
25

Dupuis, Jérôme. "Analyse statistique bayesienne de modèles de capture-recapture." Paris 6, 1995. http://www.theses.fr/1995PA066077.

Full text
Abstract:
Le modele statistique de base que nous considerons, consiste en n realisations simultanees et i. I. D. D'un processus d'interet ramene a une chaine de markov, avec donnees manquantes, non homogene, a espace d'etat fini comportant un unique etat absorbant. Alors que l'estimateur du maximum de vraisemblance est actuellement disponible l'analyse statistique bayesienne de ce modele de capture-recapture n'a pas encore ete abordee. L'estimation bayesienne des probabilites de survie et de mouvement du modele de base est realisee via l'algorithme de gibbs. Des conditions suffisantes de convergence de l'algorithme sont etablies. Puis nous developpons des tests afin d'apprehender les differentes sources d'heterogeneite (temporelle, individuelle et environnementale) du phenomene biologique represente par la chaine de markov. Le test d'homogeneite temporelle que nous construisons formule la question d'interet en terme de divergence acceptable entre la chaine initiale et sa projection (au sens de la distance de kullback) sur l'espace des chaines de markov homogenes. Nous developpons ensuite des tests formules en terme d'independance conditionnelle permettant de mettre en evidence un effet differe d'un processus auxiliaire (variable aleatoire discrete environnementale ou individuelle, dependant ou non du temps) sur le processus d'interet. Enfin, pour la premiere fois en capture-recapture, une situation de non-independance des comportements migratoires est envisagee. Nous considerons une structure de dependance de nature unilaterale qui permet de rendre compte d'un eventuel effet guide en dynamique des populations animales
APA, Harvard, Vancouver, ISO, and other styles
26

Larrere, Guy. "Contribution à l'étude asymptotique en analyse statistique multivariée." Pau, 1994. http://www.theses.fr/1994PAUU3026.

Full text
Abstract:
Ce travail est composé de cinq articles qui se répartissent en deux parties. On considère d'abord l'étude asymptotique des éléments propres associés à la valeur propre limite nulle en analyse canonique linéaire. Les lois limites sont complètement explicitées et permettent de généraliser le test de Bartlett de nullité des derniers coefficients canoniques. On montre ensuite que les résultats sont radicalement différents en analyse en composantes principales. Dans ce cas, on obtient, à partir d'une certaine taille d'échantillon et de l'analyse par échantillonnage, les éléments propres associés à la valeur propre limite zéro. Ces résultats sont obtenus sans faire d'hypothèses sur les lois des variables étudiées. La seconde partie est consacrée à l'étude asymptotique des modèles structurels. On réalise d'abord l'étude asymptotique du modèle structurel usuel dans le cadre de l'estimation selon les moindres carres des paramètres du modèle. On propose ensuite un modèle structurel mixte qui permet de généraliser les modèles fonctionnels et structurels usuels. On réalise l'étude asymptotique de ce modèle.
APA, Harvard, Vancouver, ISO, and other styles
27

Vu, Thi Lan Huong. "Analyse statistique locale de textures browniennes multifractionnaires anisotropes." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0094.

Full text
Abstract:
Nous construisons quelques extensions anisotropes des champs browniens multifractionnels qui rendent compte de phénomènes spatiaux dont les propriétés de régularité et de directionnalité peuvent varier dans l’espace. Notre objectif est de mettre en place des tests statistiques pour déterminer si un champ observé de ce type est hétérogène ou non. La méthodologie statistique repose sur une analyse de champ par variations quadratiques, qui sont des moyennes d’incréments de champ au carré. Notre approche, ces variations sont calculées localement dans plusieurs directions. Nous établissons un résultat asymptotique montrant une relation linéaire gaussienne entre ces variations et des paramètres liés à la régularité et aux propriétés directionnelles. En utilisant ce résultat, nous concevons ensuite une procédure de test basée sur les statistiques de Fisher des modèles linéaires gaussiens. Nous évaluons cette procédure sur des données simulées. Enfin, nous concevons des algorithmes pour la segmentation d’une image en régions de textures homogènes. Le premier algorithme est basé sur une procédure K-means qui a estimé les paramètres en entrée et prend en compte les distributions de probabilité théoriques. Le deuxième algorithme est basé sur une algorithme EM qui implique une exécution continue à chaque boucle de 2 processus. Finalement, nous présentons une application de ces algorithmes dans le cadre d’un projet pluridisciplinaire visant à optimiser le déploiement de panneaux photovoltaïques sur le terrain. Nous traitons d’une étape de prétraitement du projet qui concerne la segmentation des images du satellite Sentinel-2 dans des régions où la couverture nuageuse est homogène
We deal with some anisotropic extensions of the multifractional brownian fields that account for spatial phenomena whose properties of regularity and directionality may both vary in space. Our aim is to set statistical tests to decide whether an observed field of this kind is heterogeneous or not. The statistical methodology relies upon a field analysis by quadratic variations, which are averages of square field increments. Specific to our approach, these variations are computed locally in several directions. We establish an asymptotic result showing a linear gaussian relationship between these variations and parameters related to regularity and directional properties of the model. Using this result, we then design a test procedure based on Fisher statistics of linear gaussian models. Eventually we evaluate this procedure on simulated data. Finally, we design some algorithms for the segmentation of an image into regions of homogeneous textures. The first algorithm is based on a K-means procedure which has estimated parameters as input and takes into account their theoretical probability distributions. The second algorithm is based on an EM algorithm which involves continuous execution ateach 2-process loop (E) and (M). The values found in (E) and (M) at each loop will be used for calculations in the next loop. Eventually, we present an application of these algorithms in the context of a pluridisciplinary project which aims at optimizing the deployment of photo-voltaic panels on the ground. We deal with a preprocessing step of the project which concerns the segmentation of images from the satellite Sentinel-2 into regions where the cloud cover is homogeneous
APA, Harvard, Vancouver, ISO, and other styles
28

Douspis, Marian. "Analyse statistique des anisotropies du fond diffus cosmologique." Toulouse 3, 2000. http://www.theses.fr/2000TOU30185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Elqasyr, Khadija. "Modélisation et analyse statistique des plans d’expérience séquentiels." Rouen, 2008. http://www.theses.fr/2008ROUES023.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle ``Play-The-Winner''. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle "Play-The-Winner randomisée'' ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle ''Play-The-Winner'', nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables
Two distinct sections constitute this thesis. The first part concerns the study of sequential experimental designs applied to clinical trials. We study the modelling of these designs. We develop a generalization of the `` Play-The-Winner'' rule. Theoretical and numerical results show that these designs perform better than the designs recently developed, in the framework of the Freedman's urn models, which are a generalization of the ''randomized play-the-winner'' rule or of a modifiedversion of this rule. In the second part, we develop inference methods for analyszing the data from the considered sequential designs. In the case of two treatments, and for ''play-the-winner'' rule, we made explicit the sampling distributions and their factorial moments. We derive frequentist inference procedures (tests and conditional confidence intervals) and Bayesian methods for these designs. In the Bayesian framework, for a family of appropriate priors we found the posterior distributions and the credible intervals about the relevant parameters, and the predictive distributions. The link between conditional tests and Bayesian procedures is made explicit. The Bayesian methods are generalized to cover more complex plans (several treatments and delayed responses). Non informative Bayesian procedures are remarkable frequentist properties
APA, Harvard, Vancouver, ISO, and other styles
30

Romefort, Dominique Villedieu. "Analyse statistique des circuits intégrès : caractérisation des modèles." Toulouse 3, 1990. http://www.theses.fr/1990TOU30087.

Full text
Abstract:
Le travail presente porte sur l'analyse statistique des circuits integres (c. I. ) et plus particulierement sur la caracterisation des modeles statistiques, ceux-ci n'etant pas disponibles pour les composants des c. I. La caracterisation d'un modele statistique peut etre realisee a partir de la connaissance des parametres physiques directement issus du processus de fabrication, mais cette approche est limitee aux fabricants qui seuls disposent des informations necessaires. Une autre voie consiste a utiliser la mesure des performances sur un lot de composants: la methode proposee ici consiste alors a ajuster le modele sur chaque composant individuel; on obtient ainsi une base de parametres du modele, a partir de laquelle on determine la valeur moyenne et l'ecart-type de chaque parametre variable. Cette methode est principalement basee sur une optimisation parametrique, dont la solution peut dependre etroitement des algorithmes, des calculateurs et des valeurs de depart ainsi que de la qualite de la base de mesures et de l'adequation du modele. Les experimentations realisees ont montre la difficulte a obtenir un modele statistique fiable, liee aux differents points critiques cites ci-dessus, l'une des contraintes fondamentales etant de garantir l'univocite entre les mesures et les parametres du modele. Un protocole de caracterisation complet et original a ete elabore; il garantit la validite d'un modele representatif si toutes les etapes en sont franchies avec succes, et permet de tirer des conclusions objectives en cas d'insuffisance sur un des points critiques
APA, Harvard, Vancouver, ISO, and other styles
31

Aubert, Julie. "Analyse statistique de données biologiques à haut débit." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Full text
Abstract:
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique
The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
APA, Harvard, Vancouver, ISO, and other styles
32

Kollia, Aikaterini. "Analyse statistique de la diversité en anthropometrie tridimensionnelle." Thesis, Lyon, 2016. http://www.theses.fr/2016EMSE0812.

Full text
Abstract:
L’anthropométrie est le domaine scientifique qui étudie les dimensions du corps humain. La complexité de la morphologie du corps nécessite une analyse 3D, aujourd’hui permise par les progrès des scanners 3D. L’objectif de cette étude est de comparer les populations et utiliser les résultats pour mieux adapter les produits sportifs à la morphologie des utilisateurs. Des campagnes de mensuration 3D ont été réalisées et des algorithmes de traitement automatique ont été créés pour analyser les nuages de points des sujets scannés. Basés sur les méthodes d’images et de géométrie, ces algorithmes repèrent des points anatomiques, calculent des mesures 1D, alignent les sujets scannés et créent des modèles anthropométriques 3D représentatifs des populations. Pour analyser les caractéristiques anthropométriques, des statistiques de premier ordre et factorielles ont été adaptées pour être utilisées dans l’espace 3D. Les méthodes ont été appliquées à trois parties : le pied, la tête et la poitrine. Les différences morphologiques entre les populations, mais également au sein d’une population donnée, ont été révélées. Par exemple, la différence à chaque point de la tête entre des têtes a été calculée. Les statistiques en trois dimensions ont aussi permis de mettre en évidence l’asymétrie de la tête. La méthode de création de modèles anthropométriques est plus adaptée à nos applications que les méthodes dans la littérature. L’analyse en trois dimensions permet d’obtenir des résultats qui ne sont pas visibles par les analyses 1D. Les connaissances acquises par cette étude sont utilisées pour la conception de différents produits vendus dans les magasins DECATHLON à travers le monde
Anthropometry is the scientific field that studies human body dimensions (from the greek άνθρωπος (human) + μέτρον (measure)). Anthropometrical analysis is based actually on 1D measurements (head circumference, length, etc). However, the body’s morphological complexity requires 3D analysis. This is possible due to recent progress of 3D scanners. The objective of this study is to compare population’s anthropometry and use results to adapt sporting goods to user’s morphology. For this purpose, 3D worldwide measurement campaigns were realized and automated treatment algorithms were created in order to analyze the subjects’ point cloud. Based on image processing methods and on shape geometry, these algorithms detect anatomical landmarks, calculate 1D measurements, align subjects and create representative anthropometrical 3D models. In order to analyze morphological characteristics, different statistical methods including components’ analysis, were adapted for use in 3D space. The methods were applied in three body parts: the foot, the head and the bust. The morphological differences between and inside the populations were studied. For example, the difference in each point of the head, between Chinese and European head, was calculated. The statistics in three dimensions, permitted also to show the asymmetry of the head. The method to create anthropometrical models is more adapted to our applications than the methods used in the literature. The analysis in three dimensions, can give results that they are not visible from 1D analyses. The knowledge of this thesis is used for the conception of different products that they are sold in DECATHLON stores around the world
APA, Harvard, Vancouver, ISO, and other styles
33

Gerville-Réache, Léo. "Analyse statistique de modèles probabilistes appliqués aux processus sociaux." Bordeaux 1, 1998. http://www.theses.fr/1998BOR10606.

Full text
Abstract:
Les domaines d'application de la statistique mathématique sont de plus en plus nombreux ainsi que les méthodes d'analyse mises en oeuvre. Motivé, tant par des collaborations effectives que par des considérations théoriques, ce travail est construit autour de sept thèmes. Le premier chapitre regroupe trois études. Les loteries et plus particulièrement le loto, souvent donné comme exemple en combinatoire, est l'objet d'une étude basée sur plus d'une année de résultats. Une collaboration avec des chercheurs de l'institut d'oenologie nous a conduit à étudier le pouvoir prédictif de la concentration de substances chimiques sur l'âge de vins de porto. Enfin, avec la complicité du gan de Bordeaux, nous avons analysé le modèle de Makeham et construit un test d'ajustement du khi-deux pour une hypothèse simple et composée. Le deuxième chapitre présente les deux outils d'expertise sociale que nous avons mis en place à la caf de la gironde. Basé sur l'adaptation des chaines de Markov et de la régression logistique à l'analyse quantitative des risques sociaux, le premier outil est informatique. Le problème de la pondération d'experts pour une prise de décision optimale fait l'objet, dans une optique qualitative, du deuxième outil. Le troisième chapitre compare les estimations paramétriques et non paramétriques de la fonction de fiabilité du modèle standard de vie accélérée. L'étude des propriétés asymptotiques des estimateurs paramétriques ainsi que leurs simulations numériques ont été réalisées. Le dernier chapitre reprend le problème de l'estimation d'une fonction observée en addition avec un bruit stationnaire. A l'aide de techniques de projection, nous établissons, entre autre, une nouvelle condition suffisante d'optimalité de l'estimateur des moindres carrés.
APA, Harvard, Vancouver, ISO, and other styles
34

Gonzalez, Ignacio Baccini Alain Leon José. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse (Université Paul Sabatier, Toulouse 3), 2008. http://thesesups.ups-tlse.fr/99.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Salem, André. "Méthodes de la statistique textuelle." Paris 3, 1993. http://www.theses.fr/1994PA030010.

Full text
Abstract:
A l'intersection de plusieurs disciplines, méthodes de la statistique textuelle présente un bilan de recherches consacre a l'étude statistique du vocabulaire. Le premier volume est consacre a la définition des unités textuelles, a la présentation et a l'adaptation au domaine des études textuelles de plusieurs méthodes d'analyse statistique ainsi qu'a l'application de ces méthodes a différents domaines de recherche utilisant le texte. Un même ensemble de méthodes lexico métriques permet, malgré la diversité des domaines abordés, de mettre en évidence des contrastes dans la ventilation des formes et des segments qui trouvent des interprétations pertinentes pour chacun des corpus soumis à comparaison. Les études réalisées sur des séries textuelles chronologiques mettent en évidence l'importance d'un même phénomène lie à l'évolution d'ensemble du vocabulaire au fil du temps. La prise en compte de la variable temps permet de mieux caractériser les périodes ou les groupes de périodes successives, en fonction du vocabulaire qu'elles emploient. Des coefficients calculés a partir des sous-fréquences de chacune des unités textuelles (formes et segments répétés du corpus) permettent de mettre en rapport les périodisations empiriques obtenues sur la base de l'analyse chronologique du stock lexical avec les découpages a priori, réalisés a partir des dates importantes autour desquelles le corpus a été réuni
Methods for textual statistics, a multidisciplinary work, presents a critical overview of statistical studies on vocabulary. The first part is devoted to the definition of textual units and to the adaptation of a set of statistical methods (mainly multidimensional statistical methods) to textual studies. That set of lexicometric methods has also been used in various fields dealing with textual data. Beyond the diversity of the domains, lexicometrical methods reveal contrasts between distributions of forms and repeated segments throughout the texts. Those contrasts found pertinent interpretation in each case. Numerous studies performed over chronological textual series show the importance of a same phenomenon: qualitative and quantitative evolution of the vocabulary as time goes by. Taking into account time-variable leads to a better characterization of the successive time periods, or groups of periods, based upon the vocabulary they use. Coefficients calculated on the basis of the distribution of textual units (forms and repeated segments) through the different periods of the corpus, lead to compare the empirical periodizations resulting from chronological analysis of the lexical amount with a priori periodizations based on important dates of the period covered by the corpus
APA, Harvard, Vancouver, ISO, and other styles
36

Peyre, Julie. "Analyse statistique des données issues des biopuces à ADN." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00012041.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique des données issues des biopuces à ADN. Nous nous intéressons ici à trois problématiques liées aux données du transcriptôme.

Dans un premier chapitre, nous étudions le problème de la normalisation des données dont l'objectif est d'éliminer les variations parasites entre les échantillons des populations pour ne conserver que les variations expliquées par les phénomènes biologiques. Nous présentons plusieurs méthodes existantes pour lesquelles nous proposons des améliorations. Pour guider le choix d'une méthode de normalisation, une méthode de simulation de données de biopuces est mise au point.

Dans un deuxième chapitre, nous abordons le problème de la détection de gènes différentiellement exprimés entre deux séries d'expériences. On se ramène ici à un problème de test d'hypothèses multiples. Plusieurs approches sont envisagées : sélection de modèles et pénalisation, méthode FDR basée sur une décomposition en ondelettes des statistiques de test ou encore seuillage bayésien.

Dans le dernier chapitre, nous considérons les problèmes de classification supervisée pour les données de biopuces. Pour remédier au problème du "fléau de la dimension", nous avons développé une méthode semi-paramétrique de réduction de dimension, basée sur la maximisation d'un critère de vraisemblance locale dans les modèles linéaires généralisés en indice simple. L'étape de réduction de dimension est alors suivie d'une étape de régression par polynômes locaux pour effectuer la classification supervisée des individus considérés.
APA, Harvard, Vancouver, ISO, and other styles
37

Vatsiou, Alexandra. "Analyse de génétique statistique en utilisant des données pangénomiques." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS002/document.

Full text
Abstract:
Les phénotypes complexes observés dans les populations humaines contemporaines sont déterminés par la génétique, ainsi que par des facteurs environnementaux. Par exemple, la nutrition et les modes de vie jouent un rôle important dans le développement de maladies multifactorielles, comme l'obésité ou le diabète. L'adaptation sur de tels traits phénotypiques complexes survient généralement sous la forme de modification des fréquences alléliques à de multiple locus, un phénomène nommé sélection polygénique. Les avancées récentes des méthodes statistiques, ainsi que l'émergence des données issues du séquençage haut-débit permettent dorénavant la détection de ces signaux. Ici, nous visons à comprendre à quel point des changements environnementaux peuvent entraîner des modifications dans les pressions sélectives, ainsi que leurs impacts sur la sensibilité aux maladies. Dans ce but, nous proposons une analyse d'enrichissement en groupes de gènes (GSEA, Gene Set Enrichment Analysis) en utilisant des données de scores de sélection sur du polymorphisme nucléotidique (SNP, Single Nucleotide Polymorphism), pour quantifier la pression de sélection sur ces SNP (qui pourrait issus par exemple de méthodes de scan génomique). D'abord, nous effectuons une analyse de sensibilité des méthodes de scan génomique pour examiner leur exactitude. Nous utilisons une analyse par simulation pour étudier leurs performances sous un large éventail de scénarios démographiques complexes et des hypothèses de balayage sélectif fort (hard sweep) ou faible (soft sweep). Ensuite, nous développons SEL-GSEA, un outil utilisant des données de SNP pour identifier des voies biochimiques enrichies en pressions sélectives. Enfin, dans l'optique d'examiner les effets de potentiels changements environnementaux qui pourraient représenter des changements dans les pressions sélectives, nous utilisons SEL-GSEA et Gowinda (un outil disponible en ligne) lors d'une étude population-centrée. Nous analysons trois différentes populations (africains, européens et asiatiques) de la base de données HapMap. Pour obtenir les scores de sélection des SNP qui servent de base à SEL-GSEA, nous utilisons une combinaison de deux méthodes (iHS et XP-CLR) qui sont les plus performantes dans notre analyse de sensibilité. Les résultats de notre analyse montrent une forte pression de sélection sur les voies biochimiques liées à l'immunité, principalement en Afrique, ainsi que sur la glycolyse et la néoglucogenèse en Europe, qui sont des voies liées au métabolisme et au diabète
The complex phenotypes observed nowadays in human populations are determined by genetic as well as environmental factors. For example, nutrition and lifestyle play important roles in the development of multifactorial diseases such as obesity and diabetes. Adaptation on such complex phenotypic traits may occur via allele frequency shifts at multiple loci, a phenomenon known as polygenic selection. Recent advances in statistical approaches and the emergence of high throughput Next Generation Sequencing data has enabled the detection of such signals. Here we aim to understand the extent to which environmental changes lead to shifts in selective pressures as well as the impact of those on disease susceptibility. To achieve that, we propose a gene set enrichment analysis using SNP selection scores that are simply scores that quantify the selection pressure on SNPs and they could be derived from genome-scan methods. Initially we carry out a sensitivity analysis to investigate which of the recent genome-scan methods identify accurately the selected region. A simulation approach was used to assess their performance under a wide range of complex demographic structures under both hard and soft selective sweeps. Then, we develop SEL-GSEA, a tool to identify pathways enriched for evolutionary pressures, which is based on SNP data. Finally, to examine the effect of potential environmental changes that could represent changes in selection pressures, we apply SEL-GSEA as well as Gowinda, an available online tool, on a population-based study. We analyzed three populations (Africans, Europeans and Asians) from the HapMap database. To acquire the SNP selection scores that are the basis for SEL-GSEA, we used a combination of two genome scan methods (iHS and XPCLR) that performed the best in our sensitivity analysis. The results of our analysis show extensive selection pressures on immune related pathways mainly in Africa population as well as on the glycolysis and gluconeogenesis pathway in Europeans, which is related to metabolism and diabetes
APA, Harvard, Vancouver, ISO, and other styles
38

Guerineau, Lise. "Analyse statistique de modèles de fiabilité en environnement dynamique." Lorient, 2013. http://www.theses.fr/2013LORIS297.

Full text
Abstract:
Nous décrivons des modèles permettant d’étudier la fiabilité du réseau électrique sous l’influence de l’environnement dynamique dans lequel il évolue. Notre approche repose sur l’observation du réseau et s’appuie sur une modélisation probabiliste et statistique de l’occurrence des pannes. Elle s’appuie sur la loi exponentielle par morceaux, loi particulièrement adaptée, par sa flexibilité, à la représentation des durées de bon fonctionnement dans un environnement perturbé. Nous étudions les propriétés de cette loi ainsi que l’inférence suivant la nature de l’observation. Des modèles reliant la fiabilité des composants aux contraintes auxquelles ils sont soumis et reposant sur l’hypothèse d’une distribution exponentielle par morceaux sont proposés. Les estimateurs du maximum de vraisemblance sont obtenus sur des données simulées et sur des données réelles. Nous modélisons ensuite, par des processus stochastiques, la fiabilité d’un système multi-composants qui présente la particularité d’évoluer en fonction des maintenances correctives opérées. Des méthodes d’estimation adaptées à différents types d’observation du système sont présentées. Etant confrontés à une situation de données incomplètes, nous sommes conduits à envisager un algorithme EM pour mener l’inférence. Des versions stochastiques de cet algorithme sont envisagées pour faire face aux phénomènes d’explosions combinatoires qui peuvent limiter l’efficacité de l’algorithme EM. Des exemples numériques viennent illustrer les procédures que nous proposons
We propose models which integrate time varying stresses for assessing reliability of the electrical network. Our approach is based on the network observation and consists of statistical and probabilistic modelling of failure occurrence. The great flexibility allowed by the piecewise exponential distribution makes it appropriate to model time-to-failure of a component under varying environmental conditions. We study properties of this distribution and make statistical inference for different observation schemes. Models relating components reliability with environmental constraints, and relying on the piecewise exponential distribution, are proposed. The maximum likelihood is assessed on both simulated and real data sets. Then, we consider a multi-component system whose evolution is linked with the corrective maintenance performed. Reliability of this system can be described using stochastic processes. We present inference methods according to the nature of the observation. Discrete observation can be formulated in terms of missing data; the EM algorithm is used to reach estimates in this situation. Stochastic versions of this algorithm have been considered to overcome a possible combinatorial explosion preventing from the EM algorithm implementation. Numerical examples are presented for the proposed algorithms
APA, Harvard, Vancouver, ISO, and other styles
39

Meddeb, Ali. "Analyse théorique et statistique du phénomène de l'émergence financière." Montpellier 1, 1999. http://www.theses.fr/1999MON10031.

Full text
Abstract:
Un des faits, marquant la scene financiere de cette fin de millenaire, est l'apparition d'un certain nombre de pays en developpement dotes de marches boursiers tres dynamique a rendement eleve, appeles: << marches emergents >>. Toutefois, l'origine de l'apparition de cette nouvelle classe de pays est sujet a nombreuses controverses. Cette these tente d'apporter quelques elements de reponse a cette confusion conceptuelle en donnant une nouvelle vision de l'<< emergence financiere >>. Pour ce faire, la technique utilisee consiste a detecter le ou les facteurs qui ont ete a l'origine de la naissance de ce phenomene, afin d'etablir une typologie d'un echantillon compose de plusieurs pays.
APA, Harvard, Vancouver, ISO, and other styles
40

Zabalza-Mezghani, Isabelle. "Analyse statistique et planification d'expérience en ingénierie de réservoir." Pau, 2000. http://www.theses.fr/2000PAUU3009.

Full text
Abstract:
La première partie de cette thèse a pour but la prévision de réponses en production simulées, lorsqu'elles sont influencées par des paramètres contrôlables ou non-contrôlables. La spécificité de notre travail réside dans l'étude d'un paramètre non-contrôlable : le germe géostatistique, qui induit un contexte hétéroscédastique. De ce fait, le recours à une modélisation de la moyenne et de la variance de la réponse s'est avéré essentiel lors de la prédiction. Nous avons proposé deux intervalles de prédiction, l'un faisant appel au reéhantillonnage bootstrap, l'autre non, qui ont fourni d'excellentes prédictions. Un autre objectif de cette première partie était l'utilisation des gradients de la réponse pour améliorer la prédiction. Grâce à une méthode de prédiction bayésienne traitant conjointement réponse et gradients, nous avons mis en évidence l'apport significatif des gradients. Dans la seconde partie de la thèse, consacrée au calage des données dynamiques, l'originalité de notre approche réside dans le recours aux plans d'expérience. Ce problème de calibration d'un modèle de simulation en fonction des données dynamiques revient en fait à minimiser une fonction objectif. Le comportement non-linéaire de la fonction objectif ne pouvant être approché par un polynome, nous avons proposé de coupler la méthode simplex, qui permet de localiser un domaine sur lequel une approximation polynomiale est fondée, à la méthode des plans d'expérience qui permet de construire un modèle analytique de la fonction objectif. Une minimisation de ce modèle fournit alors les valeurs des paramètres qui restituent les données dynamiques. Cette méthodologie met en évidence l'intérêt des plans d'expérience pour le calage, en particulier lorsque les méthodes d'optimisation sont inadaptées du fait d'une non-différentiabilité, comme lors de la mise à jour des modèles géostatistiques discrets. Diverses applications à des cas de gisement illustrent d'ailleurs l'efficacité des méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
41

Colin, Pascal. "Analyse statistique d'images de fluorescence dans des jets diphasiques." Rouen, 1998. http://www.theses.fr/1998ROUES069.

Full text
Abstract:
La nature quantitative, en terme de concentration locale, de la fluorescence induite par laser a permis de réaliser des études statistiques des images dans la zone de développement proche de l'injecteur de jets diphasiques coaxiaux avec ou sans combustion. Quand elle est superieure a trois diamètres d'injection, la longueur du dard liquide est gouvernée par le rapport des pressions dynamiques entre le gaz et le liquide injectes. Cependant l'étude de l'aire interfaciale du dard et l'examen des champs de vitesse instantanés du liquide montrent l'existence d'un régime avec troncature du dard. La fraction volumique et la probabilité de présence de liquide ont été analysées selon un schéma simplifié où le spray est localement décrit comme un réseau régulier de gouttes sphériques identiques. A Weber d'injection constant, la taille et la densité de ces gouttes équivalentes évoluent spatialement de façon très différentes selon la vitesse d'injection du liquide. Une technique originale a permis de mesurer de façon cumulative la PDF de la fraction volumique de liquide en tout point de l'écoulement : la distribution obtenue comporte en deux pics d'intermittence encadrant une fraction turbulente continue. Dans le cas où l'atomisation est véritablement gouvernée par l'écoulement gazeux, la fraction turbulente du spectre prend rapidement du poids et elle peut être décrite par une simple fonction d’Arrhenius à un paramètre local unique. Un simple changement de variable met en évidence la forme canonique de cette distribution et l'application des principes généraux de la physique statistique fournit le nombre de degrés de liberté des éléments du spray en tous points du champ. Cette approche prometteuse ne demande aucune hypothèse sur la forme des éléments liquides et il semble que la variable réduite utilisée soit directement reliée à l'énergie potentielle d'interaction des éléments par l'intermédiaire de la densité d'interface. La fluorescence de l'oxygène chaud induite par une nappe laser UV dans le banc cryogénique mascotte alimente en GH 2/LOx, nous a fourni des images instantanées de la surface réactive de combustion non prémélangée. Une analyse de cette surface en terme de probabilité de présence, de taux plissement et de courbure locale est proposé afin de confronter aux modèles de combustion turbulente à chimie rapide.
APA, Harvard, Vancouver, ISO, and other styles
42

Marchaland, Catherine. "Analyse statistique d'un tableau de notes : comparaisons d'analyses factorielles." Paris 5, 1987. http://www.theses.fr/1987PA05H123.

Full text
Abstract:
Ce travail présente quelques comparaisons de méthodes d'analyse factorielle dans le cas particulier de l'étude d'un tableau de notes. La partie portant sur les aspects théoriques comporte trois chapitres. Dans le premier nous procédons à des rappels sur les méthodes classiques d'analyse factorielle : analyse en composantes principales et analyse des correspondances. Dans le deuxième chapitre nous présentons les perturbations que subissent les valeurs propres et les sous espaces invariants d'un endomorphisme symétrique quand on lui ajoute un endomorphisme symétrique ou quand on le premultiplie par un endomorphisme symétrique défini positif. Dans le troisième chapitre, après avoir défini l'équivalence de deux analyses, on procède à quatre comparaisons. La première permet d'établir l'équivalence de l'analyse des correspondances sur un tableau dédouble en 0 et 1, et de l'analyse en composantes principales du tableau non dédouble. La deuxième comparaison concerne l'analyse en composantes principales faite sur la matrice des corrélations et celle faite sur la matrice des covariances. La troisième comparaison permet d'établir l'équivalence entre l'analyse des correspondances d'un tableau de notes dédouble et l'analyse en composantes principales sur la matrice des covariances. Dans la quatrième comparaison on étudie l'influence de la modification des éléments diagonaux d'une matrice lors d'une analyse en composantes principales. La deuxième partie de ce travail se compose d'une illustration de ces comparaisons sur des données physiologiques et d'une ouverture sur d'autres analyses qui constituent des prolongements intéressants a ces méthodes d'analyse factorielle : les méthodes des échelles multidimensionnelles et le modèle lisrel.
APA, Harvard, Vancouver, ISO, and other styles
43

Jaunâtre, Kévin. "Analyse et modélisation statistique de données de consommation électrique." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS520.

Full text
Abstract:
En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit
APA, Harvard, Vancouver, ISO, and other styles
44

Huang, Weibing. "Dynamique des carnets d’ordres : analyse statistique, modélisation et prévision." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066525/document.

Full text
Abstract:
Cette thèse est composée de deux parties reliées, le premier sur le carnet d'ordre et le deuxième sur les effets de valeur de tick. Dans la première partie, nous présentons notre cadre de modélisation de carnet. Le modèle queue-réactive est d'abord introduit, dans laquelle nous révisons l'approche zéro intelligence traditionnelle en ajoutant dépendance envers l'État de carnet. Une étude empirique montre que ce modèle est très réaliste et reproduit de nombreuses fonctionnalités intéressantes microscopiques de l'actif sous-jacent comme la distribution du carnet de commandes. Nous démontrons également qu'il peut être utilisé comme un simulateur de marché efficace, ce qui permet l'évaluation de la tactique de placement complexes. Nous étendons ensuite le modèle de queue-réactive à un cadre markovien général. Conditions de Ergodicité sont discutés en détail dans ce paramètre. Dans la deuxième partie de cette thèse, nous sommes intéressés à étudier le rôle joué par la valeur de la tique à deux échelles microscopiques et macroscopiques. Tout d'abord, une étude empirique sur les conséquences d'un changement de la valeur de tick est effectuée à l'aide des données du programme pilote de réduction de la taille 2014 tick japonais. Une formule de prédiction pour les effets d'un changement de valeur de tique sur les coûts de transactions est dérivé. Ensuite, un modèle multi-agent est introduit afin d'expliquer les relations entre le volume du marché, la dynamique des prix, spread bid-ask, la valeur de la tique et de l'état du carnet d'ordres d'équilibre
This thesis is made of two connected parts, the first one about limit order book modeling and the second one about tick value effects. In the first part, we present our framework for Markovian order book modeling. The queue-reactive model is first introduced, in which we revise the traditional zero-intelligence approach by adding state dependency in the order arrival processes. An empirical study shows that this model is very realistic and reproduces many interesting microscopic features of the underlying asset such as the distribution of the order book. We also demonstrate that it can be used as an efficient market simulator, allowing for the assessment of complex placement tactics. We then extend the queue-reactive model to a general Markovian framework for order book modeling. Ergodicity conditions are discussed in details in this setting. Under some rather weak assumptions, we prove the convergence of the order book state towards an invariant distribution and that of the rescaled price process to a standard Brownian motion. In the second part of this thesis, we are interested in studying the role played by the tick value at both microscopic and macroscopic scales. First, an empirical study of the consequences of a tick value change is conducted using data from the 2014 Japanese tick size reduction pilot program. A prediction formula for the effects of a tick value change on the trading costs is derived and successfully tested. Then, an agent-based model is introduced in order to explain the relationships between market volume, price dynamics, bid-ask spread, tick value and the equilibrium order book state
APA, Harvard, Vancouver, ISO, and other styles
45

Zreik, Rawya. "Analyse statistique des réseaux et applications aux sciences humaines." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E061/document.

Full text
Abstract:
Depuis les travaux précurseurs de Moreno (1934), l’analyse des réseaux est devenue une discipline forte, qui ne se limite plus à la sociologie et qui est à présent appliquée à des domaines très variés tels que la biologie, la géographie ou l’histoire. L’intérêt croissant pour l’analyse des réseaux s’explique d’une part par la forte présence de ce type de données dans le monde numérique d’aujourd’hui et, d’autre part, par les progrès récents dans la modélisation et le traitement de ces données. En effet, informaticiens et statisticiens ont porté leurs efforts depuis plus d’une dizaine d’années sur ces données de type réseau en proposant des nombreuses techniques permettant leur analyse. Parmi ces techniques on note les méthodes de clustering qui permettent en particulier de découvrir une structure en groupes cachés dans le réseau. De nombreux facteurs peuvent exercer une influence sur la structure d’un réseau ou rendre les analyses plus faciles à comprendre. Parmi ceux-ci, on trouve deux facteurs importants: le facteur du temps, et le contexte du réseau. Le premier implique l’évolution des connexions entre les nœuds au cours du temps. Le contexte du réseau peut alors être caractérisé par différents types d’informations, par exemple des messages texte (courrier électronique, tweets, Facebook, messages, etc.) échangés entre des nœuds, des informations catégoriques sur les nœuds (âge, sexe, passe-temps, Les fréquences d’interaction (par exemple, le nombre de courriels envoyés ou les commentaires affichés), et ainsi de suite. La prise en considération de ces facteurs nous permet de capturer de plus en plus d’informations complexes et cachées à partir des données. L’objectif de ma thèse été de définir des nouveaux modèles de graphes aléatoires qui prennent en compte les deux facteurs mentionnés ci-dessus, afin de développer l’analyse de la structure du réseau et permettre l’extraction de l’information cachée à partir des données. Ces modèles visent à regrouper les sommets d’un réseau en fonction de leurs profils de connexion et structures de réseau, qui sont statiques ou évoluant dynamiquement au cours du temps. Le point de départ de ces travaux est le modèle de bloc stochastique (SBM). Il s’agit d’un modèle de mélange pour les graphiques qui ont été initialement développés en sciences sociales. Il suppose que les sommets d’un réseau sont répartis sur différentes classes, de sorte que la probabilité d’une arête entre deux sommets ne dépend que des classes auxquelles ils appartiennent
Over the last two decades, network structure analysis has experienced rapid growth with its construction and its intervention in many fields, such as: communication networks, financial transaction networks, gene regulatory networks, disease transmission networks, mobile telephone networks. Social networks are now commonly used to represent the interactions between groups of people; for instance, ourselves, our professional colleagues, our friends and family, are often part of online networks, such as Facebook, Twitter, email. In a network, many factors can exert influence or make analyses easier to understand. Among these, we find two important ones: the time factor, and the network context. The former involves the evolution of connections between nodes over time. The network context can then be characterized by different types of information such as text messages (email, tweets, Facebook, posts, etc.) exchanged between nodes, categorical information on the nodes (age, gender, hobbies, status, etc.), interaction frequencies (e.g., number of emails sent or comments posted), and so on. Taking into consideration these factors can lead to the capture of increasingly complex and hidden information from the data. The aim of this thesis is to define new models for graphs which take into consideration the two factors mentioned above, in order to develop the analysis of network structure and allow extraction of the hidden information from the data. These models aim at clustering the vertices of a network depending on their connection profiles and network structures, which are either static or dynamically evolving. The starting point of this work is the stochastic block model, or SBM. This is a mixture model for graphs which was originally developed in social sciences. It assumes that the vertices of a network are spread over different classes, so that the probability of an edge between two vertices only depends on the classes they belong to
APA, Harvard, Vancouver, ISO, and other styles
46

Métadier, Marjolaine. "Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluie." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00668706.

Full text
Abstract:
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles.
APA, Harvard, Vancouver, ISO, and other styles
47

Farsi, Mohammed Naboussi. "Identification des structures de génie civil à partir de leurs réponses vibratoires : vulnérabilité du bâti existant." Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10257.

Full text
Abstract:
Le but de ce travail est de developper des outils pour la determination des caracteristiques vibratoires des structures de genie civil, et leur application en vue d'une amelioration de la reglementation parasismique, voire d'une estimation de la vulnerabilite sismique. Une technique d'identification multi-excitations est presentee, permettant la prise en compte des couplages entre les differents types de mouvements, et egalement celle de l'interaction sol-structure. Elle est ensuite appliquee a deux types de donnees: le premier provient d'une experience sur table vibrante (donnees cassba), et le second d'un ensemble de 49 batiments californiens ayant subi divers seismes recents. L'analyses des donnees cassba montre, outre des non-linearites pour l'essentiel reversibles dependant du niveau d'excitation, un tres fort controle des mouvements par le decollement de la base. L'importance numerique du de donnees californiennes permet d'etablir des relations statistiques correlant la periode et l'amortissement des modes fondamentaux aux dimensions geometriques (dont la plus importante est la hauteur), et a la structure du batiment. Leur comparaison avec certaines formules reglementaires (ubc88, rpa88, afps90), montre clairement le caractere conservatif des formules francaises. Par ailleurs, l'analyse comparative des erreurs residuelles entre les identifications mono et multi-excitations suggere l'importance des couplages entre les mouvements transverses et longitudinaux, et, pour certains batiments, de l'interaction sol-structure. Un troisieme volet amorce une etude de vulnerabilite du bati existant dans l'agglomeration grenobloise. Les differentes methodes utilisees conduisent toutes a des resultats similaires, indiquant un risque sismique non-negligeable dans cette ville, compte tenu des phenomenes d'amplification qui affectent l'ensemble de la cuvette. En outre, les mesures de bruits de fond realises sur quelques dizaines de batiments grenoblois montrent d'une part la fiabilite de cette methode simple pour l'estimation des frequences propres et des deformees modales, et d'autre part, la meilleure representativite des formules afps90 pour les batiments a murs-voiles
APA, Harvard, Vancouver, ISO, and other styles
48

Fischer, Nicolas. "Fusion statistique de fichiers de données." Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0483.

Full text
Abstract:
La fusion statistique de fichiers a pour but de rapprocher des données issues des sources différentes. Lorsque des données sont manquantes, les techniques de fusion permettent de transférer de l’information, c’est à dire les variables d’intérêt, contenues dans un certain nombre de fichiers (fichiers donneurs) à un autre fichier(fichier receveur). Cette méthode repose sur l’existence de variables communes, aux différents fichiers. Nous proposons de nouvelles approches de modélisation des variables d’intérêt qualitatives, qui font appel à la régression logistique et la régression PLS. Celle-ci est particulièrement intéressante dans le cas de données fortement corrélées. Ces méthodes ont été appliquées à des données réelles et validées selon plusieurs critères qui permettent de s’assurer de la qualité de l’analyse. Enfin, un système d’aide à la décision performant, fondé sur l’indicateur lift, a été validé opérationnellement
It is the objective of statistical data fusion to put together data emanating from distinct sources. When data are incomplete in files, fusion methodologies enable to transfer information, i. E. Variables of interest which are available in the so called donor files into a recipient file. This technique is based on the presence of common variables between the different files. We introduce new models for qualitative data which involve logistic and PLS regression. The latter is of special interest when dealing with highly correlated data set. These methods have been successfully tested on real data set and validated according to several criteria assessing the quality of statistical analysis. Finally, a decision making process has been operationally validated by using the lift indicator
APA, Harvard, Vancouver, ISO, and other styles
49

Ibbou, Smaïl. "Classification, analyse des correspondances et methodes neuronales." Paris 1, 1998. http://www.theses.fr/1998PA010020.

Full text
Abstract:
Ce travail traite des contributions que peuvent apporter les techniques neuronales au domaine de l'analyse des données et plus particulièrement a la classification et à l'analyse des correspondances. Ce document peut être découpé en trois parties : - La première partie aborde le problème complexe du choix du nombre pertinent de classes à retenir dans une classification de données. Pour cela, nous étudions un algorithme de fusion de données dans rd propose par Y. F Wong en 1993. La méthode se base sur la minimisation de l'énergie libre qui est souvent utilisée en mécanique statistique. Nous apportons une formalisation rigoureuse du problème ainsi que l'étude complète de l'algorithme dans le cas ou D est égal à un. - La seconde partie est consacrée à l'utilisation de l'algorithme de Kohonen dans le cas de données incomplètes. Nous proposons l'adaptation de la méthode ainsi qu'une étude empirique sur la robustesse de l'algorithme de Kohonen face aux données manquantes. L'étude empirique est menée sur des exemples simulés et réels en regardant d'une part les désorganisations du réseau et d'autre part en mesurant des erreurs ad hoc. On définit également une méthode d'estimation des données manquantes. - Dans la troisième partie on présente deux méthodes originales pour le traitement des variables qualitatives via l'algorithme de Kohonen. Baptisées kacm 1 et kacm II, ces deux algorithmes permettent de réaliser l'analogue d'une analyse des correspondances multiples en classant les modalités des variables et les individus sur une même carte de Kohonen.
APA, Harvard, Vancouver, ISO, and other styles
50

Azzaoui, Nourddine. "Analyse et estimations spectrales des processus α-stables non-stationnaires." Dijon, 2006. http://www.theses.fr/2006DIJOS063.

Full text
Abstract:
Dans cette thèse une nouvelle représentation spectrale des processus symétriques alpha-stables est introduite. Elle est basée sur une propriété de pseudo-additivité de la covariation et l'intégrale au sens de Morse-Transue par rapport à une bimesure que nous construisons en utilisant la pseudo-additivité. L'intérêt de cette représentation est qu'elle est semblable à celle de la covariance des processus du second ordre; elle généralise celle établie pour les intégrales stochastiques par rapport à un processus symétrique alpha-stable à accroissements indépendants. Une classification des processus harmonisables non stationnaires a été étudiée selon la structure de la bimesure qui les caractérise et les processus périodiquement covariés ont été définis. Pour pouvoir simuler cette inhabituelle classe de processus, une nouvelle décomposition en séries de type Lepage a été apportée. Finalement des techniques non paramétriques d'estimation spectrale sont discutées. En particulier un estimateur presque sûrement convergeant sous une condition de mélange fort, a été introduit pour les processus périodiquement covariés
In this work a new spectral representation of a symmetric alpha-stable processes is introduced. It is based on a covariation pseudo-additivity and Morse-Transue's integral with respect to a bimeasure built by using pseudo-additivity property. This representation, specific to (S alpha S) processes, is analogous to the covariance of second order processes. On the other hand, it generalizes the representation established for stochastic integrals with respect to symmetric alpha-stable process of independent increments. We provide a classification of non-stationary harmonizable processes; this classification is based on the bimeasure structure. In particular, we defined and investigated periodically covariated processes. To simulate and build this unusual class, a new decomposition in the Lepage's type series was derived. Finally, to apply this results in practical situations, a nonparametric estimation of spectral densities are discussed. In particular, in the case of periodically covariated processes, an almost sure convergent estimators was derived under the strong mixing condition
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography