To see the other types of publications on this topic, follow the link: Distribution (Théorie des probabilités) – Mesure.

Dissertations / Theses on the topic 'Distribution (Théorie des probabilités) – Mesure'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Distribution (Théorie des probabilités) – Mesure.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pigeon, Mathieu. "Utilisation d'avis d'experts en actuariat." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25548/25548.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Wang, Xiaomin. "Décider du type de distribution de degré d'un graphe (réseau) à partir des mesures traceroute-like." Paris 6, 2011. http://www.theses.fr/2011PA066608.

Full text
Abstract:
La distribution des degrés de la topologie d'Internet est considéré comme l'un de ses principales propriétés. Cependant, on ne connaît une estimation biaisée par une procédure de mesure. Cette mesure comme la première approximation est modélisé par un arbre de BFS (parcours en largeur). Nous explorons ici, notre capacité à inférer le type (soit Poisson soit la loi de puissance) de la distribution des degrés d'une telle connaissance limitée. Nous les procédures de conception qui estiment la distribution des degrés d'un graphe à partir d'un ou plusieurs BFS, et de montrer expérimentalement (sur les graphes du modèle et les graphes du monde réel) que notre méthodologie réussit à distinguer Poisson et la loi de puissance et dans certains cas nous peuvons également estimer le nombre de liens. De plus, nous établissons une méthode, qui est une urne décroissante, pour analyser la procédure de la file d'attente. Nous analysons le profil de l'arbre BFS d'un graphe aléatoire avec une distribution des degrés donnée. Le nombre de nœuds et le nombre de liens invisibles à chaque niveau de l'arbre BFS sont deux principaux résultats que nous obtenons. Grâce à ces informations, nous proposons deux autres méthodologies pour décider du type plus précisement. The degree distribution of the Internet topology is considered as one of its main properties. However, it is only known through a measurement procedure which gives a biased estimate. This measurement may in first approximation be modeled by a BFS (Breadth-First Search) tree. We explore here our ability to infer the type (Poisson or power-law) of the degree distribution from such a limited knowledge. We design procedures which estimate the degree distribution of a graph from a BFS or multi-BFS trees, and show experimentally (on models and real-world data) that our approaches succeed in making the difference between Poisson and power-law degree distribution and in some cases can also estimate the number of links. In addition, we establish a method, which is a diminishing urn, to analyze the procedure of the queue. We analyze the profile of the BFS tree from a random graph with a given degree distribution. The expected number of nodes and the expected number of invisible links at each level of BFS tree are two main results that we obtain. Using these informations, we propose two new methodologies to decide on the type of the underlying graph.
APA, Harvard, Vancouver, ISO, and other styles
3

Genest, Maxime. "Mesures de localisation et de dispersion et profondeur de Tukey en statistique directionnelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27669/27669.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rabenoro, Dimbihery. "Distribution asymptotique de vecteurs aléatoires indépendants non identiquement distribués conditionnés par leur somme. Lois limites fonctionnelles pour les incréments d’un processus de Lévy." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS572.

Full text
Abstract:
Dans la première partie de cette thèse, nous développons des théorèmes limites conditionnels pour des vecteurs aléatoires indépendants, non nécessairement identiquement distribués. Nous étendons ainsi des théorèmes classiques du type principe de Gibbs conditionnels, obtenu dans le cas i.i.d. Nous utilisons notamment des développements de type point-selle. Dans la seconde partie, nous obtenons des théorèmes d’Erdös-Renyi pour les incréments d’un processus de Lévy, dans une version fonctionnelle. L’outil clé est ici celui de grandes déviations fonctionnelles
In the first part of this work, we develop conditional limit theorems for independent not necessarily identically distributed random vectors. We extend thus classical theorems, as the Gibbs conditioning principle, obtained in the i.i.d. case. We use, among other tools, some saddlepoint approximations. In the second part, we obtain a functional form of Erdös-Renyi theorems for the increments of Lévy processes. The main tools are here functional large deviations principles
APA, Harvard, Vancouver, ISO, and other styles
5

Bräutigam, Marcel. "Pro-cyclicality of risk measurements. Empirical quantification and theoretical confirmation." Thesis, Sorbonne université, 2020. http://www.theses.fr/2020SORUS100.

Full text
Abstract:
Cette thèse analyse, d’un point de vue empirique et théorique, la procyclicité des mesures de risque sur les données historiques, i.e. l'effet de surestimation du risque futur en temps de crise, et sa sous-estimation en temps normal. Nous développons une méthodologie pour évaluer empiriquement le degré de procyclicité, en introduisant un processus de quantiles (« Value-at-Risk ») historiques pour mesurer le risque. En appliquant cette procédure à 11 indices boursiers, nous identifions deux facteurs expliquant la procyclicité : le « clustering » et le retour à la moyenne de la volatilité (tel que modélisée par un GARCH(1,1)), mais aussi la façon intrinsèque d'estimer le risque sur des données historiques (même en l'absence de dynamique de la volatilité). Pour confirmer théoriquement ces arguments, nous procédons en deux étapes. Premièrement, nous démontrons des théorèmes bivariés (fonctionnels) de limite centrale pour les estimateurs de quantiles avec différents estimateurs de dispersion. Comme modèles de base, nous considérons les suites de variables aléatoires iid, ainsi que la classe des processus GARCH(p,q) augmentés. Enfin, ces résultats asymptotiques permettent de valider théoriquement la procyclicité observée empiriquement. Généralisant cette étude à d’autres mesures de risque et de dispersion, nous concluons que la procyclicité persistera quel que soit le choix de ces mesures
This thesis examines, empirically and theoretically, the pro-cyclicality of risk measurements made on historical data. Namely, the effect that risk measurements overestimate the future risk in times of crisis, while underestimating it in quiet times. As starting point, we lay down a methodology to empirically evaluate the amount of pro-cyclicality when using a sample quantile (Value-at-Risk) process to measure risk. Applying this procedure to 11 stock indices, we identify two factors explaining the pro-cyclical behavior: The clustering and return-to-the-mean of volatility (as modeled by a GARCH(1,1)) and the very way of estimating risk on historical data (even when no volatility dynamics are present). To confirm these claims theoretically, we proceed in two steps. First, we derive bivariate (functional) central limit theorems for quantile estimators with different measure of dispersion estimators. We establish them for sequences of iid random variables as well as for the class of augmented GARCH(p,q) processes. Then, we use these asymptotics to theoretically prove the pro-cyclicality observed empirically. Extending the setting of the empirical study, we show that no matter the choice of risk measure (estimator), measure of dispersion estimator or underlying model considered, pro-cyclicality will always exist
APA, Harvard, Vancouver, ISO, and other styles
6

Di, Bernardino Éléna. "Modélisation de la dépendance et mesures de risque multidimensionnelles." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Full text
Abstract:
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
APA, Harvard, Vancouver, ISO, and other styles
7

Louisnard, Olivier. "Contribution à l'étude de la propagation des ultrasons en milieu cavitant." ENSMP, 1998. http://www.theses.fr/1998ENMP0817.

Full text
Abstract:
La principale limitation des procédés ultrasonores est la méconnaissance de la répartition de l’énergie acoustique dans le volume à insonifier, la présence des bulles de cavitation mettant les hypothèses de l'acoustique linéaire en défaut. Le caractère non-linéaire des oscillations radiales de ces bulles constitue la première difficulté dans la modélisation de la propagation des ultrasons. A partir d'un modèle de liquide à bulles, la non-linéarite de l'onde acoustique est tout d'abord examinée numériquement dans une géométrie monodimensionnelle, à l'aide d'un code de calcul par éléments finis développé à cet effet. La population de bulles est supposée uniforme dans l'espace et monodispersé, et le code est utilisé pour différents rapports de la fréquence acoustique à la fréquence propre des bulles. Les résultats obtenus montrent divers couplages entre le contenu harmonique des différentes grandeurs et la longueur du domaine, mais surtout que l'amortissement spatial de l'onde augmente notablement avec l'amplitude de la source. La population de bulles n'est cependant pas une donnée du problème, et l’hypothèse de monodispersité et d’homogénéité spatiale est relaxée, en sacrifiant les aspects non-linéaires. Les phénomènes de croissance, de migration, de fragmentation et de coalescence des bulles sont quantifiés, et réunis dans une équation de bilan de population, qui décrit l'auto-organisation de la population de bulles sous l'influence de l'onde acoustique. Le système est fermé par une équation de propagation en liquide à bulles linéarisée. Le système obtenu présente une forme complexe, mais sa résolution pourrait être envisageable dans un régime permanent. A défaut d'une telle résolution, une confrontation qualitative du modèle obtenu à l’interprétation de l'effet d’écran est proposée, et montre la nécessite d'ajouter au modèle une équation de transport de gaz dissous, et de reconsidérer la quantification des divers phénomènes dans un cadre non-linéaire.
APA, Harvard, Vancouver, ISO, and other styles
8

Reinhold, Küstner. "Asymptotic zero distribution of orthogonal polynomials with respect to complex measures having argument of bounded variation." Nice, 2003. http://www.theses.fr/2003NICE4054.

Full text
Abstract:
On détermine la distribution asymptotique des pôles pour trois types de meilleurs approximants (Padé à l’infini, rationnel en L2 sur le cercle unité, méromorphe dans le disque unité en Lp sur le cercle unité, p>2) de la transformée de Cauchy d’une mesure complexe sous l’hypothèse que le support S de la mesure soit de capacité positive et inclus dans (-1, 1), que la mesure satisfasse une condition de densité et que l’argument de la mesure soit la restriction d’une fonction à variation bornée. Les polynômes dénominateurs des approximants satisfont des relations d’orthogonalité. Au moyen d’un théorème de Kestelman, on obtient des contraintes géométriques pour les zéros qui impliquent que chaque mesure limite faible des mesures de comptage associées à son support inclus dans S. Puis, à l’aide de résultats de la théorie du potentiel dans le plan, on montre que les mesures de comptage convergent faiblement vers la distribution d’équilibre logarithmique respectivement hyperbolique de S
We determine the asymptotic pole distribution for three types of best approximants (Padé at infinity, rational in L2 on the unit circle, meromorphic in the unit disk in Lp on the unit circle, p>2) of the Cauchy transform of a complex measure under the hypothesis that the support S of the measure is of positive capacity and included in (-1 1), that the measure satisfies a density condition and that the argument of the measure is the restriction of a function of bounded variation ? The denominator polynomials of the approximants satisfay orthogonality relations ? By means of a theorem of Kestelman we obtain geometric constraints for the zeros which imply that every weak limit measure of the associated counting measures has support included in S. Then, with the help of results from potential theory in the plane, we show that the counting measures converge weakly to the logarithmic respectively hyperbolic equilibrium distribution of S
APA, Harvard, Vancouver, ISO, and other styles
9

Lathuille, Arnaud. "Sur l'intégrabilité des distributions en dimension infinie." Chambéry, 2009. http://www.theses.fr/2009CHAMS027.

Full text
Abstract:
L'Organisation Européenne pour la Recherche Nucléaire ou CERN, à Genève, est sur le point de mettre en service le LHC (Large Hadron Collider). Cet accélérateur de particules et les détecteurs dont il est équipé ont été conçus pour tenter de répondre aux interrogations que posent les théories de physique des particules actuelles. Le détecteur ATLAS est l'un de ces détecteurs, construit notamment pour confirmer ou infirmer l'existence du boson de Higgs. L'exploitation du détecteur et la qualité des données dépendent de la maîtrise de ses éléments de détection mais aussi de la maîtrise des conditions environnementales de l'expérience. Dans cette optique, Les travaux présentés dans ce document portent sur des réalisations instrumentales effectuées d'une part pour le contrôle de l'infrastructure du détecteur ATLAS et d'autre part pour le détecteur ALFA (Absolute Luminosity For ATLAS) qui doit fournir une mesure de la luminosité absolue du faisceau du LHC au point d'interaction d'ATLAS. La première partie présente la réalisation de deux projets intégrés dans le Système de Contrôle du Détecteur (DCS) : FPIAA (Finding Persons Inside ATLAS Areas) a été développé pour la sécurité des personnes dans la caverne expérimentale durant les périodes de maintenance du détecteur en fournissant une application de localisation et de suivi actif des personnes dans la caverne. Une seconde application a été développée pour mesurer la dose de radiations ionisantes et la fluence de particules intégrées par les éléments du détecteur pendant son exploitation afin de pouvoir évaluer à long terme leur vieillissement en fonction de la dose reçue. Les travaux réalisés sur le détecteur ALFA portent sur la qualification du matériel de photo-détection utilisé et sur l'évaluation et l'optimisation des performances des compteurs Trigger du détecteur. Enfin des réalisations préliminaires sur le DCS du détecteur ALFA sont présentées. Une structure logicielle a été développée pour configurer à distance l'électronique front-end ainsi que pour effectuer un étalonnage automatisé du détecteur et un protocole de communication haut niveau a été mis en place pour permettre au DCS d'ALFA d'échanger des informations avec le système de contrôle du mouvement des détecteurs sur le faisceau du LHC
The European Organization for Nuclear Research or CERN, Geneva, is about to operate the Large Hadron Collider (LHC). This accelerator ring and its particles detectors have been built to try to answer to the actual questions given by the particle physics theories. One of these detectors, ATLAS, has been designed, for instance, to validate, or invalidate, the theories on the existence of the Higgs Boson. The operation of the detector and the quality of ifs data depend on the quality of the detection elements but it depends also strongly on the good monitoring of its environment. In this respect, the developments presented in this docu- ment are focused on the control of the infrastructure of the ATLAS detector and on the ALFA detector (Absolute Luminosity For ATLAS) which is designed to provide an absolute measurement of the luminosity of the LHC beam at the ATLAS interaction point. Two projects which are integrated in the Detector Control System (DCS are presented in the first part of the document: FPIAA (Finding Persons Inside ATLAS Areas) has been developed as a tool for people safety in the experimental cavern during the maintenance periods of ATLAS. It consists in an application for people localization and an active tracking of people in the cavern. A second application has been developed to measure the level of ionizing radiations and the particles fluency in the detector during its operation. These data will be used to evaluate the aging of the elements of the detector in respect with the level of integrated radiations. The work done on the ALFA detector is focused on particle detection technologies and control applications. The photo detection devices which will be used have been evaluated, the hardware of the trigger counter have been studied and optimized. Finally, preliminary developments on the DCS of the ALFA detector will be presented. Software components have been implemented to configure remotely the front-end electronics of the detector and to perform automated calibrations. A high level communication scheme has also been implemented for data exchange between the ALFA DCS and the system which controls the movements of the detector on the LHC beam
APA, Harvard, Vancouver, ISO, and other styles
10

Bousfiha, Amina. "Approximation des systèmes semi-markoviens via les distributions de type phase et application en fiabilité." Compiègne, 1998. http://www.theses.fr/1998COMP1092.

Full text
Abstract:
Les processus semi-markoviens sont des processus dont l'évolution future dépend du temps passé depuis la dernière transition ; ils sont fréquemment rencontrés en pratique. Ici nous nous intéressons à l'étude de la fiabilité des systèmes semi-markoviens. Leur principal inconvénient c'est la complexité des calculs pour l'obtention de la fonction de transition du processus, ce qui complique considérablement les calculs des indices de fiabilité, de performance, etc. Dans ce travail, nous nous proposons d'approximer les systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase. Une distribution de type phase est une distribution de temps d'absorption d'un processus de Markov fini absorbant. Nous développons des méthodes pour approximer les fonctions de transition non exponentielles d'un système semi-markovien par des distributions de type phase. Ensuite, nous montrons comment construire le générateur du système markovien transformé. D'autre part, nous évaluons une borne sur la distance entre deux systèmes semi-markoviens. Ce résultat nous a permis de contrôler l'erreur commise sur la matrice des probabilités de transition et sur les indices de fiabilité, lors de l'approximation des systèmes semi-markoviens par des systèmes markoviens en utilisant les distributions de type phase.
APA, Harvard, Vancouver, ISO, and other styles
11

Marzouki, Abdelwaheb. "Segmentation statistique d'images radar." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-304.pdf.

Full text
Abstract:
Cette thèse est consacrée a la segmentation statistique non supervisée des images radar. L'originalité de notre étude réside dans l'adoption du système de distributions de Pearson pour modéliser les scènes naturelles homogènes. Nous généralisons les méthodes d'estimation employées pour un mélange de distributions de même loi a un mélange de distributions de lois différentes et appartenant au système de Pearson. Des algorithmes d'estimation bases sur la maximisation de la vraisemblance et sur la notion de l’Esperance conditionnelle ont été développes afin d'accomplir cette tâche. Les méthodes d'estimation développées pour les images radar mono spectrales ont été généralisées pour le cas des images radar multi spectrales. Nous étudions la robustesse des algorithmes proposes à travers la segmentation d'images de synthèse et d'images radar de natures différentes.
APA, Harvard, Vancouver, ISO, and other styles
12

Paolantoni, Victoria. "Propriétés d'extension et estimations de sous-moyenne pour des fonctions de Cauchy-Riemann définies sur une hypersurface de Cn." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11026.

Full text
Abstract:
On montre des proprietes de sous-moyenne pour les fonctions de cauchy-riemann (notees cr) sur une hypersurface lisse m de l'espace complexe a n dimensions. Premierement, on presente differemment un resultat de regularite, deja etabli par f. Treves, affirmant que toute distribution cr sur une variete hypocomplexe est en fait lisse. Sous l'hypothese d'extension holomorphe locale bilaterale de toute fonction cr sur un voisinage de 0 dans m, nous montrons que les fonctions cr verifient une propriete de sous-moyenne. Dans la seconde partie, nous precisons la constante intervenant dans cette estimation en fonction de la geometrie des points de m. Nous utilisons la construction de disques analytiques, idee deja exploitee par a. Boggess, r. Dwilewicz et a. Nagel, pour obtenir des proprietes de sous-moyenne en des points situes d'un cote de m pour des fonctions plurisousharmoniques dans le cadre de domaines pseudoconvexes. Nous generalisons leurs estimations a des domaines de type fini. De plus dans le cas ou l'on dispose des proprietes de stabilite du type et de l'extension bilaterale, nous demontrons que la constante est de l'ordre de l'inverse de la mesure d'une boule anisotrope de m. Dans la troisieme partie, nous generalisons un resultat de boggess et dwilewicz pour des hypersurfaces m pseudoconvexes de type fini et estimons la valeur moyenne d'une fonction cr sur une variete n uniformement par rapport a la norme de cette fonction sur un voisinage de n dans m. Enfin, nous soulignons la necessite de l'hypothese n non tangente complexe en tout point en proposant un contre-exemple
APA, Harvard, Vancouver, ISO, and other styles
13

Sahnoun, Réda. "Composition asymptotique de processus d'urne de Pólya et applications à l'algorithmique." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0051.

Full text
Abstract:
Les processus de Pólya sont des marches aléatoires à temps discret dans R^d, généralisations naturelles des urnes de Pólya-Eggenberger. Dans ce dernier modèle, une urne peut contenir des boules de d couleurs différentes, et une matrice (déterministe) à coefficients entiers relatifs décrit les règles de remplacement après chaque tirage. De nombreuses situations issues de l'informatique (structures arborescentes) ou de la physique théorique (percolation, fragmentation) se modélisent par ces objets. Le comportement asymptotique de ces processus fait apparaître une famille de nouvelles lois de probabilité, certaines d'entre elles sont déterminées par leurs moments; tandis que pour d'autre, la série génératrice des moments diverge. Ceci témoigne de la richesse de ce modèle, cependant, les cas étudiés permettent de dégager la combinatoire complexe du cas général
Polya processes are discrete-time random walks in R^d, natural generalizations of Pólya-Eggenberger urns. In this latter model, a urn may contain balls of different colors and a matrix (deterministic) with integer coefficients describes the rules for replacement after each draw. Many situations from the computer sciences (tree structures) or theoretical physics (percolation fragmentation) are modeled by these objects. The asymptotic behavior of these processes reveals a new family of probability laws, some of them are determined by their moments, while for the other, the exponential generating function of moments diverges. This attests to the richness of this model, however, the cases reviewed permit to identify the complex combinatorics of the general case
APA, Harvard, Vancouver, ISO, and other styles
14

Dalhoumi, Mohamed Néjib. "Sur l'estimation de probabilités de queues multivariées." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS061/document.

Full text
Abstract:
Cette thèse présente des contributions à la modélisation multivariée des queues de distribution. Nous introduisons une nouvelle modélisation des probabilités de queue jointes d'une distribution multivariée avec des marges Pareto. Ce modèle est inspiré de celui de Wadsworth et Tawn (2013). Une nouvelle variation régulière multivariée non-standard de coefficient une fonction à deux variables est introduite, permettant de généraliser deux approches de modélisation respectivement proposées par Ramos et Ledford (2009)et Wadsworth et Tawn (2013). En nous appuyant sur cette modélisation nous proposons une nouvelle classe de modèles semi-paramétriques pour l'extrapolation multivariée selon des trajectoires couvrant tout le premier quadrant positif. Nous considérons aussi des modèles paramétriques construits grâce à une mesure non-négative satisfaisant une contrainte qui généralise celle de Ramos et Ledford (2009). Ces nouveaux modèles sont flexibles et conviennent tant pour les situations de dépendance que d'indépendance asymptotique
This PhD thesis presents contributions to the modelling of multivariate extremevalues. We introduce a new tail model for multivariate distribution with Pareto margins. This model is inspired from the Wadsworth and Tawn (2013) one. A new non-standard multivariate regular variation with index equals to a function of two variables is thus introduced to generalize both modeling approaches proposedby Ramos and Ledford (2009) and Wadsworth and Tawn (2013), respectively. Building on this new approach we propose a new class of non-parametric models allowing multivariate extrapolation along trajectories covering the entire first positive quadrant. Similarly we consider parametric models built with a non-negative measure satisfying a constraint that generalizes the Ramos and Ledford (2009) one. These new models are flexible and valid in both situations of dependence or asymptotic independence
APA, Harvard, Vancouver, ISO, and other styles
15

Saad, Fatma-Zohra. "Etude comparée de plusieurs algorithmes pour le problème du plus court chemin dans un réseau dont les arcs ont une longueur aléatoire." Paris 6, 1988. http://www.theses.fr/1988PA066519.

Full text
Abstract:
Ce travail est relatif à l'étude du problème du plus court chemin dans un réseau dont les arcs ont une longueur aléatoire. Après un bref rappel de quelques algorithmes sur le cas déterministe (longueurs des arcs fixées), certaines méthodes de résolution analytiques sont données en détails, puis des méthodes de simulation, ainsi que l'indice d'optimalité, c'est-à-dire que la probabilité qu'un chemin donné soit le plus court. Il résulte de la comparaison pratique des méthodes de simulation, une méthode très efficace et très recommandée: dite méthode de la coupe. Un programme de simulation donnant la fonction de répartition empirique de la longueur du plus court chemin des graphes complets et autres est fourni. Les longueurs des arcs sont supposées suivant la loi uniforme, exponentielle et normale respectivement. On donne une fonction qui approxime de façon satisfaisante cette fonction de répartition empirique.
APA, Harvard, Vancouver, ISO, and other styles
16

Lanciani, Albino Attilio. "Analyse phénoménologique du concept de probabilité." Lyon, Ecole normale supérieure, 2010. http://www.theses.fr/2010ENSL0087.

Full text
Abstract:
Cette étude porte sur la notion de probabilité telle qu'elle a été élaborée en mathématiques à partir de l'axiomatisation d'A. N. Kolmogorov et en thermodynamique, dans la théorie cinétique des gaz de L. Boltzmann. L'analyse philosophique emprunte des outils à la phénoménologie telle qu'elle est exposée par son fondateur, E, Husserl, tout en prenant en compte certaines contributions postérieures, telles que celles de J. -T. Desanti et de G. -C. Rota. La probabilité représente le point de convergence entre plusieurs questionnements scientifiques. Il s'agit d'une notion feuilletée et stratifiée où s'entrecroisent des éléments d'une importance fondamentale pour une épistémologie rigoureuse et pertinente des dites « sciences dures ». La tâche de l'étude est précisément de frayer une voie possible vers une compréhension phénoménologique de cet horizon problématique. Cette compréhension ne cherche pas cependant à inscrire de force cet horizon dans une doctrine phénoménologique pré-définie. Bien plutôt, elle recourt à certains concepts phénoménologiques, tels que ceux de Fundierung ou d'ontologie formelle, qui se révèlent particulièrement opératoires pour l'analyse du sens de la notion de probabilité. Dans une perspective plus large, nous parvenons ainsi à une interprétation - que l'on pourrait qualifier d'« harmonique » - du mode d'enchaînement des savoirs scientifiques
The current study is based upon the notion of probability as it was formulated in Mathematics after A. N. Kolmogorov’s axiomatisation as well as in thermodynamics as part of the kinetic theory of gases put forward by L. Boltzmann. The philosophical analysis borrows its instruments from phenomenology as it was expounded by its founder, E. Husserl, though taking into account all the subsequent contributions by J. -T. Desanti and G. -C. Rota. Probability is the point of convergence of different scientific questionings. That is a multilayered notion where the fundamental elements are interlaced in view of a rigorous and relevant epistemology of the so called ‘hard sciences’. The task of this study is more precisely that of paving the way to a phenomenological understanding of this problematic horizon. However the aforementioned understanding does not try to force this horizon into a predetermined phenomenological doctrine. On the contrary it avails itself of certain phenomenological concepts, like that of Fundierung or formal ontology, that are extremely operative in the analysis of the meaning of the notion of probability. Viewed from a different angle we can thus get to an interpretation, which could be qualified as ‘harmonic’, of the way the bodies of knowledge are intertwined
APA, Harvard, Vancouver, ISO, and other styles
17

Flachaire, Emmanuel. "Les méthodes du bootstrap et l'inférence robuste à l'hétéroscédasticité." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX24010.

Full text
Abstract:
La qualité de l'analyse économétrique dépend en tout état de cause de la fiabilité des statistiques de tests employées. L'interprétation nécessite de connaître les distributions de probabilité de celles-ci. Malheureusement, dans la pratique ces lois sont la plupart du temps inconnues, à moins de faire des hypothèses fortes et difficilement vérifiables. On utilise plutôt des approximations, dont la précision est déterminante. Si on dispose de suffisamment d'observations, la loi donnée par les développements asymptotiques à l'ordre dominant est souvent une bonne approximation. Mais s'il y a trop peu de données, les tests peuvent être faussés. Les méthodes du bootstrap permettent d'obtenir en général une meilleure approximation de la vraie loi de la statistique. Ces méthodes utilisent souvent la puissance de calculs des ordinateurs. Elles remplacent des hypothèses contraignantes par des millions d'opérations arithmétiques. Dans cette thèse, nous étudions les performances numériques des méthodes du bootstrap dans le cadre des modèles de régression hétéroscédastiques. Il existe deux méthodes appropriées : le bootstrap par paires et le wild bootstrap. Les résultats expérimentaux montrent que la fiabilité des tests est améliorée, sans toutefois qu'elle devienne satisfaisante dans certains cas. Nous en proposons alors des versions améliorées. Grâce à ces dernières, nous montrons que les tests sont fiables, même pour des échantillons de petite taille.
APA, Harvard, Vancouver, ISO, and other styles
18

Seri, Raffaello. "Contributions à l'étude des liens entre statistique et méthodes numériques : discrépances et programmation stochastique." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090071.

Full text
Abstract:
Dans la première partie de la thèse, nous dérivons les propriétés statistiques de certaines discrépances introduites en Analyse Numérique pour tester l'uniformité dans l'hypercube unité, plus précisément nous traiterons des discrépances généralisées de Hickernell (qui sont une généralisation des statistiques de Kolmogorov-Smirnov et de Cramér-von Mises) et des discrépances quadratiques, qui englobent la diaphonie, le test spectral pondéré, la discrépance de Fourier et les tests du chi-deux. Ensuite, nous donnons une nouvelle approximation computationnelle de la distribution asymptotique de ces discrépances. Nous donnons plusieurs résultats de convergence, en particulier une version fonctionnelle du Théorème Ergodique de Birkhoff, et un résultat général sur l'approximation épigraphique d'une fonctionnelle intégrale par une fonctionnelle approchée. Enfin, nous discutons du comportement d'une méthode d'approximation Monte Carlo pour la Programmation Stochastique Entière
In the first part of the Thesis, we derive the statistical properties of some discrepancies introduced in Numerical Analysis to test uniformity in the unit hypercube, namely Hickernell's generalized discrepancies (a generalization of the Kolmogorov-Smirnov and the Cramér-vonMises statistics), and quadratic discrepancies, containing the diaphony, the weighted spectral test, the Fourier discrepancy and chi-square tests. Then, we provide a new computational approximation of the asymptotic distribution of these discrepancies. Then, we deal with a linked problem arising in Stochastic Programming, namely the approximation of an integral functional that cannot be computed explicitly. We provide several convergence results, in particular a functional version of the Birkhoff Ergodic Theorem, and a general result on the epigraphical approximation of an integral functional through an approximate one. At last we discuss the behavior of an approximation method for Integer Stochastic Programming
APA, Harvard, Vancouver, ISO, and other styles
19

Carraro, Laurent. "Questions de prédiction pour le mouvement brownien et le processus de Wiener à plusieurs paramètres." Lyon 1, 1985. http://www.theses.fr/1985LYO11660.

Full text
Abstract:
La premiere partie est consacree a la theorie des distributions empiriques a valeurs reelles, puis vectorielles. On etudie dans la seconde partie les mouvements browniens fractionnaires d'ordre alpha a plusieurs parametres, pour lesquels une decomposition en harmoniques spheriques est explicitee. Dans la troisieme partie, on exhibe une decomposition spectrale du processus de wiener a deux parametres qui se fonde sur les invariants de ce dernier
APA, Harvard, Vancouver, ISO, and other styles
20

Hernandez, Freddy. "Fluctuations à l'équilibre d'un modèle stochastique non gradient qui conserve l'énergie." Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090029.

Full text
Abstract:
En cette thèse nous étudions le champ de fluctuations à l'équilibre de l'énergie d'un modèle non gradient réversible. Nous établissons la convergence en loi vers un processus d'Ornstein-Uhlenbeck généralisé. En adaptant la méthode non gradient introduite par S. R. S Varadhan, nous identifions le terme de diffusion, ce qui nous permet de déduire le principe de Boltzmann-Gibbs. Ceci est le point essentiel pour montrer que les lois fini dimensionnelles du champ de fluctuations, convergent vers les lois fini dimensionnelles d'un processus généralisé d'Ornstein-Uhlenbeck. De plus, en utilisant à nouveau le principe de Boltzmann-Gibbs nous obtenons aussi la tension du champ de fluctuations de l'énergie dans un certain espace de Sobolev, ce qui avec la convergence des lois fini dimensionnelles implique la convergence en loi vers le processus généralisé d'Ornstein-Uhlenbeck (mentionné ci-dessus). Le fait que la quantité conservée n'est soit pas une forme linéaire des coordonnées du système, introduit des difficultés supplémentaires de nature géométrique lors de l'application de la méthode non gradient de Varadhan
In this thesis we study the equilibrium energy fluctuation field of a one-dimensional reversible non gradient model. We prove that the limit fluctuation process is governed by a generalized Ornstein-Uhlenbeck process. By adapting the non gradient method introduced by S. R. S Varadhan, we identify the correct diffusion term, which allows us to derive the Boltzmann-Gibbs principle. This is the key point to show that the energy fluctuation field converges in the sense of finite dimensional distributions to a generalized Ornstein-Uhlenbeck process. Moreover, using again the Boltzmann-Gibbs principle we also prove tightness for the energy fluctuation field in a specified Sobolev space, which together with the finite dimensional convergence implies the convergence in distribution to the generalized Ornstein-Uhlenbeck process mentioned above. The fact that the conserved quantity is not a linear functional of the coordinates of the system, introduces new difficulties of geometric nature in applying Varadhan's non gradient method
APA, Harvard, Vancouver, ISO, and other styles
21

Lescot, Paul. "Analyse sur l'espace de Wiener : un théorème de désintégration en analyse quasi-sûre, un critère de régularité des lois pour certaines fonctionnelles de Wiener, a singular integral formula on the Wiener space, Sard's theorem for hypersmooth functionals on the Wiener space." Paris 6, 1993. http://www.theses.fr/1993PA066408.

Full text
Abstract:
On s'intéresse dans ce travail à l'image x de la mesure de Wiener par une application f de x dans la d-ème puissance de l'ensemble des nombres réels (x = espace de Wiener classique). Lorsque f n'a pas de points critiques, on obtient (1) l'existence d'une densité s. C. I. Pour la mesure image et une bonne formule de désintégration. Les hypothèses sont plus faibles que celles d'Airault-Malliavin. Dans 2 on obtient un critère de régularité sans hypothèse de différentiabilité sur f, au moyen d'une famille de temps d'arrêt associés au comportement de f le long des trajectoires du processus o. U. Dans 3 on esquisse un formalisme de dérivation d'ordre fractionnaire sur x. Dans 4, on obtient un analogue du théorème de Sard pour les fonctionnelles d'ito provenant d'équations différentielles stochastiques dont les coefficients appartiennent à une classe de Gevrey
APA, Harvard, Vancouver, ISO, and other styles
22

Zohoorianazad, Elahe. "Comportement asymptotique des mots aléatoires et des arbres aléatoires, et applications." Nancy 1, 2007. http://www.theses.fr/2007NAN10034.

Full text
Abstract:
Cette thèse est divisée en deux parties. La première partie s’intéresse à l’analyse probabiliste des mots, particulièrement les mots de Lyndon. Nous trouvons la loi limite de la longueur du facteur droit standard d’un mot aléatoire de Lyndon, en considérant d’abord le cas simple des mots aléatoires finis à deux lettres équiprobables, puis le cas des mots aléatoires finis avec des lettres indépendantes tirées d’un alphabet fini ou infini totalement ordonné selon une loi de probabilité générale. Par ailleurs dans ce cas général, nous trouverons la loi jointe asymptotique des longueurs normalisées des facteurs de Lyndon d’un mot aléatoire fini. Nous donnons finalement un coup d’oeil sur la structure des arbres de Lyndon. La deuxième partie étudie, en première place, la distribution limite d’une fonctionnelle additive définie sur les arbres de Cayley. Ensuite, on étudie un nouveau type de modèle de percolation de dimension 1, le modèle de parking avec stratégie de marches aléatoires pour les déplacements des voitures
This thesis is divided in two parts. The first part is interested in the probabilistic analysis on words, especially in what concerns Lyndon words. We find in this part the limit law of the length of the standard right factor of random Lyndon words, first in the simple case of the alphabet of two equiprobable letters, then in the case of the finite random words with independent letters pulled of a totally ordered finite or infinite alphabet, according to a general probability distribution. Moreover in this general case, we shall find the asymptotic joint law of the normalized lengths of the Lyndon factors of a finite word. We finally give in this part, a look on the structure of Lyndon trees. The second part studies first the limit distribution of an additive functional on Cayley trees, then a new type of a one dimensional percolation model that can be seen as the study of cars parking after a random walk
APA, Harvard, Vancouver, ISO, and other styles
23

Fougères, Anne-Laure. "Estimation non paramétrique de densités unimodales et de fonctions de dépendance." Toulouse 3, 1996. http://www.theses.fr/1996TOU30038.

Full text
Abstract:
Cette these se presente en deux parties independantes. La premiere partie est consacree a l'etude des distributions unimodales univariees admettant une densite de probabilite. Nous nous interessons plus specifiquement a l'estimation non parametrique de la densite. L'objectif est d'estimer cette densite par un estimateur intrinseque, i. E. Possedant lui-meme la proprite d'unimodalite. Nous proposons un nouvel estimateur, fonde sur le rearrangement decroissant de l'estimateur a noyau. Nous obtenons des resultats de convergence et de comportement asymptotique, et effectuons finalement a l'aide de simulations une comparaison avec differents estimateurs existants. La deuxieme partie de ce travail concerne l'etude des distributions bivariees de valeurs extremes. De telles lois sont caracterisees par une fonction de dependance, nous proposons un estimateur non parametrique de la fonction de dependance, dont nous etudions les proprietes theoriques. Plusieurs estimateurs ont ete etudies, notamment par pickands, tiago de oliveira et deheuvels. Par l'intermediaire de simulations, nous comparons ces differents estimateurs avec celui que nous introduisons
APA, Harvard, Vancouver, ISO, and other styles
24

Provillard, Julien. "Automates cellulaires non-uniformes." Nice, 2012. http://www.theses.fr/2012NICE4082.

Full text
Abstract:
Les automates cellulaires (CA) sont des systèmes dynamiques discrets très utilisés dans de nombreux domaines scientifiques. Leurs principales caractéristiques sont d’agir de manière locale, synchrone et uniforme sur l’ensemble des cellules d’une grille régulière. Ces systèmes produisent une grande variété de dynamiques et ont été largement étudiés dans la littérature. De nombreuses variantes ont été proposées. Dans ce travail de thèse nous nous intéresserons aux automates cellulaires non-uniformes (nu-CA). Il s’agit, essentiellement, d’automates cellulaires dans lesquels la contrainte d’uniformité a été relâchée. Dans un premier temps, nous considérerons une famille de nu-CA qui permet de représenter des perturbations dans la structure d’un CA. Il s’agit d’étudier l’influence d’une panne ou d’une erreur ponctuelle dans l’implémentation d’un CA et notamment son influence sur la dynamique. Nous verrons que de nombreuses propriétés ne sont pas stables (à l’exception notable de l’équicontinuité) mais que l’on peut alors établir des liens entre un CA et ses modèles de perturbation. Dans une seconde partie, nous cherchons à déterminer les propriétés que peut avoir un nu6CA en fonction des comportements locaux que l’on peut observer. On se donne un ensemble de règles locales qui peuvent intervenir dans un nu-CA et nous nous intéressons à la façon d’agencer ces règles pour produire certaines propriétés dans l’automate induit. Nous associons alors, à chacune de ces propriétés, un langage de distributions que nous caractérisons) à l’aide de la théorie des langages
Cellular automata (CA) are discrete dynamical systems widely used in many scientific domains. Their main characteristic is to act locally, synchronously and uniformly on a regular set of elementary components called cells. These systems have a huge variety of dynamical behaviours and have been extensively studied in literature. Several variants have been proposed. In this work we are interested in non-uniform cellular automata (nu-CA). They are, essentially, CA in which the uniformity constraint has been relaxed. In the first part, we study a family of nu6CZA which allows to easily representing perturbations of the structure of a CA. The idea is to study the impact of the dynamics of failure or of an error in the physical implementation of a CA by electronic components. Indeed, we will prove that several dynamical properties are not structurally stable (except for the equicontinuity property). However, we will show how to link properties of a CA and its “perturbed” versions. In the second part, we try to infer the global properties of a nu-CA from the local behaviours we can observe. Given a set of local rules which can appear in a given nu-CA, we study the way of mowing them to obtain given global behaviours. Moreover, we associate global properties with peculiar formal languages and we completely characterize these formal languages. In this way we obtain a natural notion of complexity for properties on nu-CA. A property is a complex as the class of languages from which it is characterizes
APA, Harvard, Vancouver, ISO, and other styles
25

Peng, Shen. "Optimisation stochastique avec contraintes en probabilités et applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS153/document.

Full text
Abstract:
L'incertitude est une propriété naturelle des systèmes complexes. Les paramètres de certains modèles peuvent être imprécis; la présence de perturbations aléatoires est une source majeure d'incertitude pouvant avoir un impact important sur les performances du système. Dans cette thèse, nous étudierons les problèmes d’optimisation avec contraintes en probabilités dans les cas suivants : Tout d’abord, nous passons en revue les principaux résultats relatifs aux contraintes en probabilités selon trois perspectives: les problèmes liés à la convexité, les reformulations et les approximations de ces contraintes, et le cas de l’optimisation distributionnellement robuste. Pour les problèmes d’optimisation géométriques, nous étudions les programmes avec contraintes en probabilités jointes. A l’aide d’hypothèses d’indépendance des variables aléatoires elliptiquement distribuées, nous déduisons une reformulation des programmes avec contraintes géométriques rectangulaires jointes. Comme la reformulation n’est pas convexe, nous proposons de nouvelles approximations convexes basées sur la transformation des variables ainsi que des méthodes d’approximation linéaire par morceaux. Nos résultats numériques montrent que nos approximations sont asymptotiquement serrées. Lorsque les distributions de probabilité ne sont pas connues à l’avance, le calcul des bornes peut être très utile. Par conséquent, nous développons quatre bornes supérieures pour les contraintes probabilistes individuelles, et jointes dont les vecteur-lignes de la matrice des contraintes sont indépendantes. Sur la base des inégalités de Chebyshev, Chernoff, Bernstein et de Hoeffding, nous proposons des approximations déterministes. Des conditions suffisantes de convexité. Pour réduire la complexité des calculs, nous reformulons les approximations sous forme de problèmes d'optimisation convexes solvables basés sur des approximations linéaires et tangentielles par morceaux. Enfin, des expériences numériques sont menées afin de montrer la qualité des approximations étudiées sur des données aléatoires. Dans certains systèmes complexes, la distribution des paramètres aléatoires n’est que partiellement connue. Pour traiter les incertitudes dans ces cas, nous proposons un ensemble d'incertitude basé sur des données obtenues à partir de distributions mixtes. L'ensemble d'incertitude est construit dans la perspective d'estimer simultanément des moments d'ordre supérieur. Ensuite, nous proposons une reformulation du problème robuste avec contraintes en probabilités en utilisant des données issues d’échantillonnage. Comme la reformulation n’est pas convexe, nous proposons des approximations convexes serrées basées sur la méthode d’approximation linéaire par morceaux sous certaines conditions. Pour le cas général, nous proposons une approximation DC pour dériver une borne supérieure et une approximation convexe relaxée pour dériver une borne inférieure pour la valeur de la solution optimale du problème initial. Enfin, des expériences numériques sont effectuées pour montrer que les approximations proposées sont efficaces. Nous considérons enfin un jeu stochastique à n joueurs non-coopératif. Lorsque l'ensemble de stratégies de chaque joueur contient un ensemble de contraintes linéaires stochastiques, nous modélisons ces contraintes sous la forme de contraintes en probabilité jointes. Pour chaque joueur, nous formulons les contraintes en probabilité dont les variables aléatoires sont soit normalement distribuées, soit elliptiquement distribuées, soit encore définies dans le cadre de l’optimisation distributionnellement robuste. Sous certaines conditions, nous montrons l’existence d’un équilibre de Nash pour ces jeux stochastiques
Chance constrained optimization is a natural and widely used approaches to provide profitable and reliable decisions under uncertainty. And the topics around the theory and applications of chance constrained problems are interesting and attractive. However, there are still some important issues requiring non-trivial efforts to solve. In view of this, we will systematically investigate chance constrained problems from the following perspectives. As the basis for chance constrained problems, we first review some main research results about chance constraints in three perspectives: convexity of chance constraints, reformulations and approximations for chance constraints and distributionally robust chance constraints. For stochastic geometric programs, we formulate consider a joint rectangular geometric chance constrained program. With elliptically distributed and pairwise independent assumptions for stochastic parameters, we derive a reformulation of the joint rectangular geometric chance constrained programs. As the reformulation is not convex, we propose new convex approximations based on the variable transformation together with piecewise linear approximation methods. Our numerical results show that our approximations are asymptotically tight. When the probability distributions are not known in advance or the reformulation for chance constraints is hard to obtain, bounds on chance constraints can be very useful. Therefore, we develop four upper bounds for individual and joint chance constraints with independent matrix vector rows. Based on the one-side Chebyshev inequality, Chernoff inequality, Bernstein inequality and Hoeffding inequality, we propose deterministic approximations for chance constraints. In addition, various sufficient conditions under which the aforementioned approximations are convex and tractable are derived. To reduce further computational complexity, we reformulate the approximations as tractable convex optimization problems based on piecewise linear and tangent approximations. Finally, based on randomly generated data, numerical experiments are discussed in order to identify the tight deterministic approximations. In some complex systems, the distribution of the random parameters is only known partially. To deal with the complex uncertainties in terms of the distribution and sample data, we propose a data-driven mixture distribution based uncertainty set. The data-driven mixture distribution based uncertainty set is constructed from the perspective of simultaneously estimating higher order moments. Then, with the mixture distribution based uncertainty set, we derive a reformulation of the data-driven robust chance constrained problem. As the reformulation is not a convex program, we propose new and tight convex approximations based on the piecewise linear approximation method under certain conditions. For the general case, we propose a DC approximation to derive an upper bound and a relaxed convex approximation to derive a lower bound for the optimal value of the original problem, respectively. We also establish the theoretical foundation for these approximations. Finally, simulation experiments are carried out to show that the proposed approximations are practical and efficient. We consider a stochastic n-player non-cooperative game. When the strategy set of each player contains a set of stochastic linear constraints, we model the stochastic linear constraints of each player as a joint chance constraint. For each player, we assume that the row vectors of the matrix defining the stochastic constraints are pairwise independent. Then, we formulate the chance constraints with the viewpoints of normal distribution, elliptical distribution and distributionally robustness, respectively. Under certain conditions, we show the existence of a Nash equilibrium for the stochastic game
APA, Harvard, Vancouver, ISO, and other styles
26

Mathéus, Frédéric. "Probabilités et géométrie dans certains groupes de type fini." Habilitation à diriger des recherches, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00919399.

Full text
Abstract:
Dans de nombreux phénomènes régis par le hasard, le résultat de l'observation provient de la combinaison aléatoire d'événements élémentaires : le gain d'un joueur au jeu de pile ou face est le résultat de parties successives, mélanger un jeu de cartes s'effectue en plusieurs battages consécutifs, l'enchevêtrement d'une molécule d'ADN dans une cellule est le produit, entre autres, de croisements successifs. Ces événements élémentaires ont la particularité d'être réversibles (gagner/perdre au pile ou face, croiser/décroiser des brins d'ADN) et l'aléa régissant leur combinaison possède une certaine indépendance (l'issue d'une partie de pile ou face n'a a priori aucune influence sur la suivante). Un modèle possible pour ces phénomènes consiste à considérer un groupe G, fini ou dénombrable, que l'on munit d'une mesure de probabilité μ. On effectue des tirages successifs d'éléments dans G avec les hypothèses suivantes : les tirages sont indépendants, et, pour chaque tirage, μ(g) est la probabilité de tirer l'élément g. Si g1, g2,...,gn est le résul- tat de n tirages, on forme le produit g1.g2. ... . gn. C'est, par définition, la position à l'instant n de la marche aléatoire sur G de loi μ, et la question est : que peut-on dire du comportement asymptotique de g1.g2. ... .gn lorsque n augmente in- définiment ? La marche aléatoire s'en va-t'elle à l'infini ? Si oui, dans quelle direction ? Et à quelle vitesse ? Mes travaux depuis 2003 sont consacrés, pour l'essentiel, à l'étude du comportement asymptotique des marches aléatoires dans trois familles de groupes infinis, non abéliens et de type fini : les produits libres de groupes finis, les groupes d'Artin diédraux, ainsi que certaines extensions des groupes libres. Ils sont le fruit de collaborations avec Jean Mairesse (CNRS, Paris VI) et François Gautero (Université de Nice). Dans le cas des produits libres de groupes finis, nous décrivons précisément la mesure harmonique pour les marches aléatoires au plus proche voisin dans ces groupes, ce qui permet de calculer la vitesse et l'entropie asymptotique. En particulier, ces quantités dépendent de façon analytique des coefficients de μ. Considérant l'inégalité fondamentale de Yves Guivarc'h entre vitesse, entropie et croissance, nous montrons que les générateurs canoniques des produits libres de groupes finis sont extrémaux au sens de Vershik. Les groupes d'Artin diédraux forment une classe de groupes d'Artin qui généralise le groupe de tresses à trois brins B3 et pour laquelle nous donnons une description précise des géodésiques. La connaissance de la vitesse de fuite des marches aléatoires au plus proche voisin dans le groupe B3 est un premier outil de mesure de la complexité asymptotique d'une tresse aléatoire. Dans ce cas, on montre que la vitesse dépend de façon lipschitzienne mais non différentiable de μ, faisant apparaître certaines transitions de phase. Enfin, en ce qui concerne les extensions du groupe libre, nous montrons que, dans certains cas (comprenant notamment les extensions cycliques) les fonctions μ-harmoniques bornées sont entièrement décrites via le bord du groupe libre sous-jacent. La preuve repose sur l'existence d'actions non triviales de ces groupes sur des arbres réels, couplée à des critères généraux sur les compactifications des groupes développés par Vadim Kaimanovich.
APA, Harvard, Vancouver, ISO, and other styles
27

Cannone, Marco. "Ondelettes, paraproduits et Navier-Stokes." Paris 9, 1994. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1994PA090016.

Full text
Abstract:
Dans cette thèse nous donnons quelques théorèmes d'existence et unicité de solutions mild du problème de Cauchy associe aux équations de Navier-Stokes. Dans la première partie, inspirés par une approche en ondelettes établie par P. Federbush, nous utilisons la décomposition de Littlewood-Paley pour en déduire un théorème d'existence et unicité locale de solutions mild à valeurs dans un espace de Banach abstrait de distributions. Nombreux exemples de tels espaces seront fournis, comme ceux de Lebesgue, Sobolev, Morrey-Campanato et Besov. La deuxième partie de la thèse est consacrée aux solutions globales mild dans des espaces de Banach dont la norme est invariante par les dilatations normalisées. En particulier, nous généralisons un résultat classique du a t. Kato en faisant remarquer que le temps de vie de sa solution globale est, en effet, donne par une norme Besov plus faible que celle usuelle de Lebesgue ne le laissait prévoir. Enfin, nous montrons comment utiliser lesdits espaces de Besov pour en déduire un théorème d'existence et unicité de solutions auto-similaires pour les équations de Navier-Stokes
APA, Harvard, Vancouver, ISO, and other styles
28

Philippe, Anne. "Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo." Rouen, 1997. http://www.theses.fr/1997ROUES005.

Full text
Abstract:
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
APA, Harvard, Vancouver, ISO, and other styles
29

Lhote, Loïck. "Algorithmes du PGCD et Fouille de Données : le point de vue de l’analyse dynamique." Caen, 2006. http://www.theses.fr/2006CAEN2021.

Full text
Abstract:
Cette thèse aborde deux domaines de l'algorithmique: la fouille de données et l'arithmétique. Le point de vue adopté est celui de l'analyse en moyenne et, plus précisément, celui de l'analyse dynamique, qui combine des méthodes d'analyse d'algorithmes et des systèmes dynamiques. Les algorithmes de type Euclide calculent le pgcd de deux nombres ;ce sont donc des briques de base du calcul formel, mais leur comportement probabiliste fin reste encore mal connu. Tout récemment, les méthodes dynamiques ont permis des avancées significatives dans ce domaine. Nous étendons cette approche à l'analyse fine d'autres paramètres, comme la complexité binaire et la taille des restes. Ces paramètres s'avèrent essentiels pour l'analyse de l'algorithme de type diviser pour régner introduit par Knuth et Schönhage. Nous utilisons également l'analyse dynamique dans le calcul prouvé de grandeurs spectrales. L'approche dynamique s'adapte aussi à l'algorithme d'Euclide sur les polynômes, même si, dans ce cas, les méthodes de la combinatoire analytique classique s'appliquent déjà. Nous abordons également la fouille de données. Nous nous limitons à des bases de données binaires où la connaissance se représente sous forme de 'motifs fréquents'. Le nombre de ces motifs est un paramètre essentiel pour les algorithmes. D'après les expérimentations, il varieconsidérablement selon les paramètres de la base, et l'analyse dans le pire des cas n'est donc pas significative en pratique. Dans cette thèse, nous élucidons le comportement moyen du nombre de motifs fréquents dans un modèle très général, où les bases sont construites à partir de sources possiblement corrélées
This thesis deals with two main algorithmical domains : Data Mining and Arithmetical computations. In both, we are interested in the average-case analysis of algorithms, and, we adopt more precisely the dynamical analysis point of vue which is a mixed method between Analysis of Algorithms and Dynamical Systems. The Euclid algorithms compute the gcd of two numbers ; these are fundamental blocks in computer algebra, but their fine probabilistic behavior is always unknown. Thanks to Dynamical Analysis methods, recent important results have been obtained. In this thesis, we extend this approach to a precise analysis of parameters, as the binary complexity or the size of remainders. These parameters are essential for the Divide and Conquer gcd algorithm due to Knuth-Schönhage. Dynamical Analysis is also used for proven computations of spectral constants. The dynamical approach is then adapted to on polynomial Euclid algorithms even if, in this case, classical Analytic Combinatorics already applies. We also deal with Data Mining. We restrict ourselves to binary databases where the knowledge is represented by 'frequent patterns'. The number of frequent patterns is essential for analysing algorithms but experiments show that it significantly changes with the parameters of the database. Then, the worst case analysis is not meaningful in practice. In this thesis, we elucidate the average beahvior of the number of frequent patterns under a large model of databases built with eventually correlated sources
APA, Harvard, Vancouver, ISO, and other styles
30

Nasserdine, Mohamed M'Madi. "Mesure de la distribution du champ en chambre réverbérante par la théorie des perturbations : application à l'étude des directions d'arrivée." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1026/document.

Full text
Abstract:
Ce travail porte sur les techniques de mesure des champs en cavité électromagnétique et plus précisément en chambre réverbérante. En raison de la perturbation induite sur la distribution du champ au sein d'une cavité résonante par la présence d'un objet, les techniques de mesure de champ classiques utilisant une antenne souffrent d'une précision limitée. Par conséquent, nous proposons une nouvelle technique de mesure de la distribution du champ électrique basée sur la théorie des perturbations. Elle consiste à mesurer les variations de la fréquence de résonance de la cavité pour chaque position de l'élément perturbateur introduit dans la cavité, puis à en déduire la variation de l'amplitude du champ électrique. Le choix de la forme de l'objet perturbateur, de ses dimensions et de son matériau constitutif est effectué à partir des résultats des simulations et des mesures dans un cas canonique, de façon à adapter le banc de mesure au cas étudié. Cette technique de mesure est ensuite appliquée avec succès au cas d'une chambre réverbérante équipée d'un brasseur de modes, ainsi qu'à des mesures de champ à l'intérieur d'un boitier inséré dans la cavité. Cette approche a permis, via un post-traitement basé sur l'utilisation de l'algorithme MUSIC, de déterminer avec une grande précision les directions d'arrivée des champs dans la chambre réverbérante
This work deals with field measurement techniques in large electromagnetic enclosures namely reverberation chambers. Due to the perturbation of the field distribution within a resonant cavity due to the presence of an introduced object, conventional field measurement techniques employing an antenna suffer from a limited accuracy. Therefore we propose a new measurement technique of the electric field distribution based on the perturbation theory; it consists of a measure of the cavity resonant frequency variation when displacing a small perturbing object within the cavity, and leads to the electric field distribution. The choice of the perturbing object shape, dimension and material is discussed with the help of simulation and measurement results in a canonical case in order to adapt the measurement setup to the studied case. This technique is then successfully employed in a reverberation chamber equipped with a mode stirrer, as well as to measure the field within a metallic box placed in the cavity. Using a post-processing based on MUSIC algorithm, this approach has permitted to determine accurately the field directions-of-arrival in the reverberation chamber
APA, Harvard, Vancouver, ISO, and other styles
31

Hoyrup, Mathieu. "Calculabilité, aléatoire et théorie ergodique sur les espaces métriques." Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00322776.

Full text
Abstract:
L'objectif général de cette thèse est d'étudier les notions d'aléatoire et d'information algorithmiques - jusqu'ici restreints aux espaces symboliques - sur des espaces plus généraux, précisément les espaces métriques calculables, et d'appliquer ces notions à la théorie des systèmes dynamiques. Les principaux apports sont : (1) le développement d'un cadre robuste pour l'étude d'objets mathématiques (mesures de probabilité, systèmes dynamiques et leurs modèles symboliques) d'un point de vue algorithmique, notamment l'introduction et l'étude détaillée des treillis d'énumération effective; (2) l'extension de l'aléatoire algorithmique aux espaces métriques calculables, améliorant ainsi l'extension menée par Gacs qui imposait une condition supplémentaire à l'espace, et l'étude de quelques notions des probabilités classiques du point de vue de l'aléatoire; (3) un apport à la théorie des systèmes dynamiques, établissant des relations entre l'aléatoire algorithmique et l'aléatoire dynamique. Nous étudions notamment deux notions de complexité algorithmique des orbites, l'une K1 utilisant la mesure, l'autre K2 inspirée du point de vue topologique. Nous montrons que la complexité K1 des orbites partant des points aléatoires est l'entropie du système au sens de la mesure, que la borne supérieure des complexités K2 des orbites est l'entropie topologique, et que K1 et K2 coïncident pour les points aléatoires. Ce travail enrichit les résultats de Brudno et White.
APA, Harvard, Vancouver, ISO, and other styles
32

Meftah, Ali. "Mesure et interprétation de spectres de lanthanides faiblement ionisés dans l'ultraviolet : cas du néodyme et du thulium." Paris 11, 2007. http://www.theses.fr/2007PA112296.

Full text
Abstract:
Le spectre d’émission d’éléments de lanthanides ionisés est observé et mesuré sur des spectrographes en incidence normale dans l’ultraviolet(70-275nm). Les récepteurs sont des plaques argentiques ou des écrans photostimulables. Pour le néodyme, les raies de Nd III, IV et V sont discriminées expérimentalement en faisant varier les conditions d’excitation de l’étincelle. L’étude des configurations électroniques selon les méthodes de Racah-Slater au moyen des programmes de Cowan conduit à trouver les niveaux des ions libres Nd3+ et Nd4+. Les 41 niveaux de 4f3 (Nd IV) et les 12 niveaux de 4f2 (Nd V) sont interprétés paramétriquement en tenant compte des interactions de configuration au 3° ordre de perturbation électrostatique et au 2° ordre pour les interactions du spin (écart quadratique moyen = 1/13000 du domaine d’énergie interprété). Pour Nd IV, on rapporte 1426 raies avec leur classification, et les probabilités de transition gA calculées. Pour la première fois, le rôle des configurations de cœur excité sur les transitions de résonance 4f N+1-4fN5d, via l’interaction 5p64f N-15d-5p54f n5d, est mis en évidence. Les méthodes sont appliquée au spectre, totalement inconnu auparavant de Tm IV, pour lequel 760 raies sont classées et les probabilités de transitions calculées. Dans le cas de Nd V, la comparaison des intensités calculées à l’ETL et observées conduit à une température effective Teff=3,6(3)eV dans l’étincelle
The emission spectrum of lanthanide elements is observed an measured on normal incidence spectrographs (70-275nm). Argentic plates or phosphor image plates are used as receptors. In the case of neodymium, spark excitation conditions are varied to discriminate Nd III, IV and V spectral lines. The electronic configurations of the Cowan codes. The 41 levels of 4f3 (Nd IV) and 12 levels of 4f2(Nd V) are interpreted parametrically by taking into account the configuration interaction effects at the 3rd order of perturbation and all spin dependent effects at the 2nd order , with a root mean square deviation of 1/13000 of the interpreted energy range. In Nd IV, 1426 lines are reported with the combining levels, the calculated transition probabilities gA. For the first time the importance of the interaction 5p64f N-15d-5p54fN5d on the resonance transitions 4f N+1-4fN5d is evidenced. The same methods are applied to the formely unknown spectrum of Tm IV, that comprises now 760 classified lines (with calculated transition probabilities), involving 209 energy levels. In the case of Nd V, the comparison of ETL computed versus measured intensities leads to Teff=3,6(3)eV in the spark
APA, Harvard, Vancouver, ISO, and other styles
33

Cassard, Philippe. "Verrouillage par injection des lasers impulsionnels de grande puissance : le laser TEA CO₂." Paris 11, 1985. http://www.theses.fr/1985PA112338.

Full text
Abstract:
Cette thèse concerne l’étude du verrouillage par injection dans les lasers impulsionnels de grande puissance. Une analyse théorique du verrouillage de mode dans les lasers impulsionnels est présentée. Une théorie multimode est développée sur la base du traitement semi-classique du laser à champ faible. Le verrouillage par injection continue fait l’objet d’une étude approfondie. Il est clairement démontré que le verrouillage par injection d’un champ faible dans un laser impulsionnel multimode est un verrouillage de mode(s) quelle que soit la durée du champ d’injection. Le traitement présenté décrit tout aussi bien la génération d’impulsions brèves par injection. Une revue des propriétés énergétiques de l’oscillateur-laser TEA CO₂ est présentée, que ce soit en présence ou en l’absence d’injection. Une étude expérimentale fine de l’injection continue est appliquée au cas du laser TEA CO₂ muni d’un résonateur stable. Des mesures de fréquence ont été réalisées suivant un schéma original d’hétérodynage à haute fréquence. Les limites du verrouillage par injection sont étudiées. De plus, le rôle important de la densité électronique de la décharge TEA sur le verrouillage par injection est démontré. Une seconde étude expérimentale met en évidence le verrouillage par injection des modes d’ordre supérieur d’un résonateur instable dans un laser TEA CO₂ de très grande puissance
This thesis is directed at the study of injection-locking of high power pulsed lasers. Chapter I give a theoretical analysis of injection mode-locking in such lasers. A multimode theory is developed on the basis of the semi-classical treatment in the weak field regime. A detailed investigation of CW injection-locking is reported. It is clearly demonstrated that locking by injection of a weak field in a pulsed multimode laser stems from injection mode-locking whatever is the injection field time history. Thus the generation of short pulses by injection is described as well. Chapter II theoretically overviews the energetic features of the TEA CO₂ laser, with or without injection. Chapter III presents an experimental investigation of CW injection-locking in stable resonator TEA CO₂ lasers. Frequency measurements are performed with a new high frequency heterodyning scheme. The limits of CW injection locking are studied. Moreover, the influence of the transient discharge electron density on injection-locking is demonstrated. Chapter IV gives an experimental evidence of high order transverse mode injection-locking in unstable resonator TEA CO₂ lasers
APA, Harvard, Vancouver, ISO, and other styles
34

Walter, Christian. "Les structures du hasard en économie : efficience des marchés, lois stables et processus fractals." Paris, Institut d'études politiques, 1994. http://www.theses.fr/1994IEPP0043.

Full text
Abstract:
L'objet de ce travail est de montrer que les anomalies constatées dans la mesure de l'efficience des marchés, n'impliquent pas nécessairement le rejet de l'hypothèse d'efficience, mais seulement la nécessité de l'abandon de la forme réduite de ce concept à l'efficience en moyenne-variance, ou mv-efficience. Ces anomalies disparaissent dès lors que l'on change le cadre probabiliste utilisé, en levant la restriction gaussienne. On fait alors apparaitre, pour la théorie financière et ses applications, l'intérêt de l'utilisation d'une classe de processus stochastiques très généraux : les processus autosimilaires stables fractals. L'utilisation de ces processus permet de faire disparaitre, en les incorporant dans un modèle plus général, les anomalies observées par rapport à la mv-efficience : l'efficience est alors généralisée aux cas non gaussiens. Cette généralisation fournit une nouvelle approche, et donc une nouvelle compréhension, du risque des actifs financiers, et du comportement des marches. De nouvelles possibilités d'application apparaissent alors. 1) la limitation du concept d'efficience à l'efficience en moyenne-variance, ou mv-efficience, fait apparaitre, lors des mesures effectuées sur les marchés, des anomalies de rentabilité
The aim of this thesis is to show that the so-called anomalies observed in the measurement of efficiency, are not implying that there is a violation of the efficient market hypothesis. There are only implying that it is necessary to abandon the restriction of the efficiency concept, which is the mean-variance form (mv-efficiency). If the probabilist framework is modified, by outpassing the gaussian limitation, these anomalies are disappearing. Hence, it is possible to exhibit, for the financial theory and its applications, the advantage of using a large class of very general stochastic processes : the self-similar-stationnary increments-stable-fractals processes (h-sssi processes). The use of these processes allows to make the anomalies irrelevant regarding the new framework : the mv-efficiency anomalies are no more anomalies in a context of non gaussian efficiency. Hence, the efficient market hypothesis (actually the mv-efficiency) is generalized to all non gaussian cases. This generalization gives a new approach, and therefore a new understanding, of the nature of the risk of assets. The behavior of stock market prices is better explained. Hence, new possibilities of applications are emerging
APA, Harvard, Vancouver, ISO, and other styles
35

Dalmau, Joseba. "La distribution de la quasi-espèce pour une population finie." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS452/document.

Full text
Abstract:
Le concept de quasi-espèce, introduit par Manfred Eigen dans les années 70, décrit l'état d'équilibre d'une population subissant des forces de mutation et sélection. La plupart des modèles classiques présentant un phénomène de quasi-espèce sont déterministes et considèrent une population de taille infinie. L'objectif de cette thèse est d'étudier plusieurs modèles stochastiques, dont la taille de la population est finie, afin de montrer que le phénomène de la quasi--espèce est aussi présent dans ces modèles comme dans le modèles déterministes. Nous étudions en détail les modèles de Galton-Watson, Wright-Fisher et Moran. Nous confirmons que les trois modèles présentent un phénomène de quasi--espèce, et que la distribution de la quasi--espèce est la même pour les trois modèles, ainsi que pour le modèle original d'Eigen. De plus, nous décrivons explicitement la distribution de cette quasi--espèce pour le paysage de fitness à un pic, ainsi que pour des fonctions de fitness qui ne dépendent que de la distance de Hamming à la master sequence
Manfred Eigen introduced the concept of quasispecies in the early 70s, in order to describe the steady--state distribution of a population subject to mutation and selection forces. Most classical models showing a quasispecies phenomenon are deterministic and deal with a population of an infinite size. The aim of this thesis is to study several stochastic and finite--population models, and to show that a quasispecies phenomenon arises in these models too. We study in detail the Galton--Watson, Wright--Fisher and Moran models. We confirm that a quasispecies phenomenon is present in the three models, and that the distribution of this quasispecies is common to all three models as well as to Eigen's original model. Moreover, we describe explicitly the distributionof the quasispecies for the sharp peak landscape, as well as for fitness functions which depend only on the Hamming distance to the master sequence
APA, Harvard, Vancouver, ISO, and other styles
36

Ducasse, Quentin. "Etude de la méthode de substitution à partir de la mesure simultanée des probabilités de fission et d'émission gamma des actinides 236U, 238U, 237Np et 238Np." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0109/document.

Full text
Abstract:
Les sections efficaces induites par neutrons des noyaux de courte durée de vie jouent un rôle important dans des domaines variés parmi la physique fondamentale, l'astrophysique ou l'énergie nucléaire. Malheureusement de nombreuses contraintes liées à la radiotoxicité des cibles rendent la mesure de ces sections efficaces souvent très difficiles. La méthode de substitution est une technique de mesure indirecte de sections efficaces neutroniques de noyaux radioactifs qui à l'avantage de s'affranchir de ces contraintes. Pour la première fois dans ce type d'expérience,les probabilités de fission et d'émission gamma sont mesurées simultanément, pour les actinides236U, 238U, 237Np et 238Np dans le but d'étudier la validité de la méthode. Une des difficultés provient de la soustraction des gammas des fragments de fission et cette mesure constitue en cela un véritable défi. Cette expérience de mesure simultanée a été effectuée au cyclotron d'Oslo.A une énergie d'excitation fixée du noyau formé, les résultats montrent que les probabilités de fission de substitution sont en bon accord avec celles induites par neutron alors que les probabilités d'émission gamma mesurées sont plusieurs fois plus élevées. Ces écarts sont liés à la différence distribution spin peuplée par le noyau entre les deux méthodes. Des calculs de modèles statistiques avec des paramètres standards n'ont pas permis de reproduire cette insensibilité de la probabilité de fission vis à vis du spin du noyau. La reproduction des observations expérimentales devient possible en considérant un moment d'inertie du noyau fissionnant qui augmente plus rapidement avec la déformation du noyau que ne le préconisent les paramètres standards. De nouveaux efforts théoriques sont à fournir pour améliorer la compréhension de nos résultats
Neutron-induced cross sections of short-lived nuclei are important in various fields such as fundamental physics, astrophysics or nuclear energy. However, these cross sections are often extremely difficult to measure due to high radioactivity of the targets involved. The surrogate-reaction method is an indirect way to determine neutron-induced cross sections of short-lived nuclei. In order to study the validity of the method, we have measured for the very first time in a surrogate-reaction experiment simultaneously fission and gamma-decay probabilities for the actinides 236U, 238U, 237Np and 238Np. This is challenging because one has to remove the gamma rays emitted by the fission fragments. The measurement was performed at the Oslocyclotron.Our results show that for a given excitation energy, our gamma-decay probabilities are several times higher than neutron-induced probabilities, which can be attributed to differences in spin distribution between the two types of reactions. On the other hand, our fission probabilities are in good agreement with neutron-induced data. Statistical-model calculations applied with standardparameters cannot reproduce the weak spin sensibility to variations of the angular momentum observed for the fission probabilities. However, it is possible to reproduce the experimental observations by considering a stronger increase of the moment of inertia of the fissionning nucleus with deformation. Further theoretical efforts are needed to improve the understanding of our results
APA, Harvard, Vancouver, ISO, and other styles
37

Sally, Mass Hilmy. "Contribution à l'étude du problème de la gestion optimale des ressources en eau d'un bassin versant." Toulouse, INPT, 1985. http://www.theses.fr/1985INPT037H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Farrenqt, Robert. "Probabilités de transition radiative et distributions vibrationnelles de l'oxyde de carbone hors équilibre : étude expérimentale par spectroscopie infrarouge : contribution à la théorie analytique des distributions vibrationnelles." Paris 11, 1986. http://www.theses.fr/1986PA112057.

Full text
Abstract:
Cette thèse présente une analyse par spectrométrie de Fourier de l’émission de l'oxyde de carbone, excité par décharge électrique, dans le domaine infrarouge. De l'observation des transitionsΔv= 1, 2 et 3, jusqu'à v= 40, concernant les espèces 12C 16O et 13C 160, Δv= 1 jusqu'à v 26 concernant 12C 18 0, on obtient : - les probabilités de transition à deux et trois quanta, relativement aux probabilités de transition à un quantum (ces valeurs ont été utilisées pour déterminer le moment dipolaire de co sur un large domaine de distances internucléaires). Les distributions vibrationnelles des trois espèces isotopiques- Les théories analytiques concernant ces distributions (Gordiets et Mamedov, Lam) ont été confrontées aux valeurs expérimentales. Les divergences constatées nous ont conduit à modifier ces théories, en proposant un nouveau modèle pour les transferts d'énergie vibration-vibration et en y insérant les transferts multiquanta. Dans le but de mesurer séparément les distributions de population et les moments dipolaires de transition de molécules hors équilibre thermodynamique, une méthode expérimentale a été conçue et testée avec succès sur CO
This dissertation presents an analysis of carbon monoxide emission recorded in the infrared by Fourier transform spectrometry. From the observation of the Δv = 1, 2 and 3 transitions, up to v = 40, for the two isotopic species 12C 16O and 13C 160, and of the Δv= 1 transitions , up to v= 26 for 12C 18 0, we obtain : - the ratios between the one, two and three quanta transition moments (this set of new experimental information has been used for the determination of electric dipole moment function of CO, up to a large internuclear separation); -the vibrational distribution functions for the three isotopic species. The existing analytical theories (Gordiets and Mamedov, Lam) applied to our results are found inadequate. We therefore propose a new model for vibration-vibration energy transfers, taking into account the multi-quantum transfers. In order to obtain separately distribution functions and transition moments for molecules out of thermodynamical equilibrium, an experimental method has been conceived and tested successfully on CO excited by an electrical discharge
APA, Harvard, Vancouver, ISO, and other styles
39

Franceschi, Sandro. "Approche analytique pour le mouvement brownien réfléchi dans des cônes." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4046/document.

Full text
Abstract:
Le mouvement Brownien réfléchi de manière oblique dans le quadrant, introduit par Harrison, Reiman, Varadhan et Williams dans les années 80, est un objet largement analysé dans la littérature probabiliste. Cette thèse, qui présente l’étude complète de la mesure invariante de ce processus dans tous les cônes du plan, a pour objectif plus global d’étendre au cadre continu une méthode analytique développée initialement pour les marches aléatoires dans le quart de plan par Fayolle, Iasnogorodski et Malyshev dans les années 70. Cette approche est basée sur des équations fonctionnelles, reliant des fonctions génératrices dans le cas discret et des transformées de Laplace dans le cas continu. Ces équations permettent de déterminer et de résoudre des problèmes frontière satisfaits par ces fonctions génératrices. Dans le cas récurrent, cela permet de calculer explicitement la mesure invariante du processus avec rebonds orthogonaux, dans le chapitre 2, et avec rebonds quelconques, dans le chapitre 3. Les transformées de Laplace des mesures invariantes sont prolongées analytiquement sur une surface de Riemann induite par le noyau de l’équation fonctionnelle. L’étude des singularités et l’application de méthodes du point col sur cette surface permettent de déterminer l’asymptotique complète de la mesure invariante selon toutes les directions dans le chapitre 4
Obliquely reflected Brownian motion in the quadrant, introduced by Harrison, Reiman, Varadhan and Williams in the eighties, has been studied a lot in the probabilistic literature. This thesis, which presents the complete study of the invariant measure of this process in all the cones of the plan, has for overall aim to extend to the continuous framework an analytic method initially developped for random walks in the quarter plane by Fayolle, Iasnogorodski and Malyshev in the seventies. This approach is based on functional equations which link generating functions in the discrete case and Laplace transform in the continuous case. These equations allow to determine and to solve boundary value problems satisfied by these generating functions. In the recurrent case, it permits to compute explicitly the invariant measure of the process with orthogonal reflexions, in the chapter 2, and with any reflexions, in the chapter 3. The Laplace transform of the invariant measure is analytically extended to a Riemann surface induced by the kernel of the functional equation. The study of singularities and the use of saddle point methods on this surface allows to determine the full asymptotics of the invariant measure along every directions in the chapter 4
APA, Harvard, Vancouver, ISO, and other styles
40

Van, Bever Germain. "Contributions to nonparametric and semiparametric inference based on statistical depth." Doctoral thesis, Universite Libre de Bruxelles, 2013. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209438.

Full text
Abstract:
L'objectif général de cette thèse est d'introduire de nouveaux concepts ou d'étendre certaines procédures statistiques déjà existantes touchant à la notion de profondeur statistique.

Celle-ci, originellement introduite afin de généraliser la notion de médiane et de fournir naturellement un ordre (depuis un centre, vers l'extérieur) dans un contexte multivarié, a, depuis son développement, démontré ses nombreuses qualités, tant en termes de robustesse, que d'utilité dans de nombreuses procédures inférentielles.

Les résultats proposés dans ce travail se développent le long de trois axes.

Pour commencer, la thèse s'intéresse à la classification supervisée. La profondeur a, en effet, déjà été utilisée avec succès dans ce contexte. Cependant, jusqu'ici, les outils développés restaient limités aux distributions elliptiques, constituant ainsi une sévère restriction des méthodes utilisant les fonctions de profondeur, qui, pour la plupart, sont par essence nonparamétrique. La première partie de cette thèse propose donc une nouvelle méthode de classification, fondée sur la profondeur, dont on montrera qu'elle est essentiellement universellement convergente. En particulier, la règle de discrimination proposée se fonde sur les idées utilisées dans la classification par plus proches voisins, en introduisant cependant des voisinages fondés sur la profondeur, mieux à même de cerner le comportement des populations sous-jacentes.

Ces voisinages d'un point quelconque, et surtout l'information sur le comportement local de la distribution en ce point qu'ils apportent, ont été réutilisés dans la seconde partie de ce travail. Plusieurs auteurs ont en effet reconnu certaines limitations aux fonctions de profondeur, de par leur caractère global et la difficulté d'étudier par leur biais des distributions multimodales ou à support convexe. Une nouvelle définition de profondeur locale est donc développée et étudiée. Son utilité dans différents problèmes d'inférence est également explorée.

Enfin, la thèse s'intéresse au paramètre de forme pour les distributions elliptiques. Ce paramètre d'importance est utilisé dans de nombreuses procédures statistiques (analyse en composantes principales, analyse en corrélations canoniques, entre autres) et aucune fonction de profondeur pour celui-ci n'existait à ce jour. La profondeur de forme est donc définie et ses propriétés sont étudiées. En particulier, on montrera que le cadre général de la profondeur paramétrique n'est pas suffisant en raison de la présence du paramètre de nuisance (d'influence non nulle) qu'est l'échelle. Une application inférentielle est présentée dans le cadre des tests d'hypothèses.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
41

Tourneret, Jean-Yves. "Contribution à l'étude de modèles ARMA non gaussiens." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT091H.

Full text
Abstract:
Une hypothese habituelle rencontree dans la plupart des travaux theoriques et appliquee est l'hypothese gaussienne. Beaucoup d'outils de traitement du signal ont ete developpes sous cette hypothese. Par exemple, la modelisation parametrique, qui s'est averee tres utile dans plusieurs domaines comme l'analyse spectrale ou la classification, est generalement etudiee dans le cas de signaux gaussiens. Mais durant ces dernieres annees, l'interet pour les processus non gaussiens n'a cesse d'augmenter. De nouvelles techniques ont ete mises au point pour ces processus comme celles basees sur les statistiques d'ordre superieur. Le but de cette these est d'etudier certaines proprietes statistiques des modeles arma excites par des entrees non-gaussiennes. La premiere partie de ce manuscrit consiste a etudier les lois de la sortie de modeles ar, ma ou arma. Theoriquement, l'entree d'un tel modele doit verifier des hypotheses tres contraignantes pour que la sortie de ce meme modele soit gaussienne. En pratique, nous montrons que la loi de la sortie d'un modele ar, ma ou arma est souvent tres proche d'une gaussienne, ce qui permet de justifier cette hypothese communement admise. Dans la seconde partie de ce travail, nous etudions certains estimateurs parametriques. La plupart des estimateurs conventionnels de modeles ar, ma ou arma sont asymptotiquement gaussiens. Nous proposons alors un nouvel estimateur base sur la statistique d'ordre pour l'identification des modeles ma. Cet estimateur, denote par estimateur o. S. , est compare a l'estimateur des moindres carres et nous montrons qu'il n'est pas gaussien. Dans la troisieme partie de cette these, nous commencons par realiser une synthese des principaux travaux concernant l'identification ar, ma ou arma aux ordres superieurs. Deux de ces methodes d'identification sont alors comparees a celle basee sur la statistique d'ordre. Enfin, dans la quatrieme partie, nous effectuons une etude statistique de deux vecteurs parametres, obtenus par une transformation bijective des parametres ar: les coefficients cepstraux et les coefficients de reflexion
APA, Harvard, Vancouver, ISO, and other styles
42

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Full text
Abstract:
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
APA, Harvard, Vancouver, ISO, and other styles
43

Barthélemy, Marie. "Apport d'une source laser femtoseconde amplifiée pour la mesure de spectre d'extinction d'un milieu optiquement dense." Toulouse, ISAE, 2009. http://www.theses.fr/2009ESAE0001.

Full text
Abstract:
Les milieux diffusants optiquement épais sont présents dans de nombreux champs d'application (nuages, peintures, sprays ou encore les milieux biologiques). Le développement de nouvelles technologies permettant de réaliser un diagnostic in situ sans perturbations est essentiel. L'objectif de ce travail de thèse est de décrire une méthode innovante pour déterminer la distribution en taille de particules diffusantes constituant un milieu épais. L'idée consiste à réaliser une mesure de spectre d'extinction associée à un algorithme d'inversion. D'un point de vue expérimental, cette mesure n'est possible qu'avec une source laser suffisamment brillante et accordable. De plus, la contribution diffusée qui perturbe la mesure doit être filtrée. Nous démontrons que les méthodes de spectroscopie femtoseconde offrent la possibilité de surmonter toutes ces difficultés.
APA, Harvard, Vancouver, ISO, and other styles
44

Et, Tabii Mohamed. "Contributions aux descriptions optimales par modèles statistiques exponentiels." Rouen, 1997. http://www.theses.fr/1997ROUES028.

Full text
Abstract:
Cette thèse est consacrée à l'amélioration de l'approximation d'une loi inconnue, par la méthode de la i-projection sous contraintes. L'amélioration consiste à minimiser une information de Kullback pour obtenir la i-projection. La i-projection est définie à l'aide d'une probabilité de référence et de fonctions qui constituent les contraintes. Le rôle de ces données pour améliorer l'approximation est explicite. Nous développons une méthodologie pour caractériser les contraintes, les meilleures tenant compte des propriétés plausibles de la densité de la loi inconnue. Elle consiste de plus à construire pour la méthode de la i-projection, une probabilité de référence, meilleure que celle de départ. Des applications numériques montrent la pertinence de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
45

Attouch, Mohammed Kadi. "Estimation robuste de la fonction de régression pour des variables fonctionnelles." Littoral, 2009. http://www.theses.fr/2009DUNK0227.

Full text
Abstract:
La régression robuste est une analyse de régression possédant la capacité d'être relativement insensible aux larges déviations dues à certaines observations aberrantes. Dans ce cadre, on se propose dans cette thèse d'étudier l'estimation robuste de la fonction de régression, dans le cas où les observations sont à la fois indépendantes, fortement mélangeantes et la co-variable est fonctionnelle. Dans un premier temps, on considère une suite d'observations indépendantes identiquement distribuées. Dans ce contexte, nous établissons la normalité asymptotique d'une famille d'estimateurs robuste de pondération basée sur la méthode du noyau. A titre illustratif, notre résultat est appliqué à la discrimination des courbes, à la prévision des séries temporelles, et à la construction d'un intervalle de confiance. Dans un second temps, nous supposons que les observations sont fortement mélangeantes, et nous établissons la vitesse de convergence presque complète ponctuelle et uniforme de cette famille d'estimateurs ainsi que la normalité asymptotique. Notons, que les axes structurels du sujet, à savoir la "dimensionnalité" et la corrélation des observations, la "dimensionnalité" et la robustesse du modèle, sont bien exploités dans cette étude. De plus, la propriété de la concentration de la mesure de probabilité de la variable fonctionnelle dans des petites boules est utilisée, cette mesure de concentration permet sous certaines hypothèses de proposer une solution originale au problème du fléau de la dimension et ainsi généraliser les résultats déjà obtenus dans le cadre multi varié. Pour illustrer l'extension et l'apport de notre travail, nous explicitons dans des exemples comment nos résultats peuvent être appliqués aux problèmes non standard de la statistique non-paramétrique tel que la prévision de série temporelles fonctionnelles. Nos méthodes sont appliquées à des données réelles telles que l'économie et l'astronomie
The robust regression is an analysis of regression with capacity to be relatively insensitive to the large deviations due to some outliers observations. Within this framework, one proposes in this thesis studied the robust estimate of the function of regression, if the observations are at the same time independent, strongly mixing and the covariate is functional. Initially, on considers a succession of identically distributed independent observations. In this context, we establish the asymptotic normality of a robust family of estimators based on the kernel method. With title illustrative, our result is applied to the discrimination of the curves, the forecast time series, and to the construction of a confidence interval. In the second time, we suppose that the observations are strongly mixing, and we establish the rate of specific almost complete convergence and uniform of this family of estimators as well as asymptotic normality. Let us note, that the axes structural of the subject, namely “dimensionality” and the correlation of the observations, “dimensionality” and the robustness of the model, are well exploited in this study. Moreover, the property of the concentration of the measure of probability of the functional variable in small balls is used, this measure of concentration allows under some assumptions to propose an original solution to the problem of the curse of dimensionality and thus to generalize the results already obtaines in the multivariate framework. To illustrate the extension and the contribution of our work, we show in some examples how our results can be applied to the nonstandard problems of the non-parametric statistics such as the forecast of functional time series. Our methods are applied to real data such as the economy and astronomy
APA, Harvard, Vancouver, ISO, and other styles
46

Sadek, Amr Fouad. "Estimation des processus markoviens avec application en fiabilité." Compiègne, 2003. http://www.theses.fr/2003COMP1466.

Full text
Abstract:
Les processus de Markov sont des outils puissants pour étudier la fiabilité des systèmes réparables. Le présent travail porte sur l'estimation non-paramétrique des grandeurs de la fiabilité dans des modèles markoviens en temps discret et continu. Nous définissons des estimateurs de la fiabilité, disponibilité, etc. Les propriétés asymptotiques des différents estimateurs sont étudiées: convergence uniforme forte et normalité. La construction des intervalles de confiance de ces grandeurs est également donnée. Des simulations numériques confirment les avantages de ces résultats par rapport aux estimateurs empiriques, particulièrement pour les échantillons de petite taille. Nous proposons également un estimateur de la loi stationnaire des processus semi-markoviens finis et étudions ses propriétés asymptotiques. Une autre application de ces résultats est présenté. Il s'agit d'un nouvel indice de qualité de vie et de son estimateur via les modèles markoviens en temps discret et continu
Markov processes are very relevant to study the reliability as an application to real world problems. Ln this thesis, two types of processes, Markov chains and Markov pro cesses are considered. We concern with the non-parametric estimation ofthe reliability and its measurements. We define estimators of reliability, availability, etc. The asymptotic properties of the proposed estimators are studied: strong uniform consistent and normality. Using the asymptotic properties results we construct the confidence intervals for reliability and its measurements. Illustrative examples are presented to explain the obtained results and to compare with the standard empirical estimators. The extension to the semi-Markovian processes relates to a point not Jet specifically discussed in the literature, the estimation of the stationary distribution of semi- Mar kovian processes. We propose a new index for quality of life and discuss it through discrete and continuous time Markov process mode
APA, Harvard, Vancouver, ISO, and other styles
47

Cornea, Adriana. "Bootstrap raffiné pour les lois stables parétiennes avec applications aux rendements des actifs financiers." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX24023.

Full text
Abstract:
La suprématie des distributions stables parétiennes par rapport à la distribution Gaussienne est d'or et déjà considérée comme un fait stylisé dans la pratique et la théorie financière. Il est devenu évident que l'inférence asymptotique pour les rendements espérés des actifs financiers n'est pas toujours fiable et que le bootstrap non paramétrique peut être utilisé comme alternative. Cependant, différentes études ont mis en évidence l'invalidité du bootstrap non paramétrique pour les variables aléatoires telles que les rendements espérés issues des distributions stables parétiennes. La raison pour laquelle le bootstrap non paramétrique n'est pas valide est liée au fait que les rendements sont influencés par le risque des opportunités d'investissement, risque qui est supérieur sur un marché stable parétien que sur un marché financier gouverné par la loi Gaussienne. La solution la plus connue pour pallier à cette difficulté est le bootstrap non paramétrique avec une taille d'échantillon bootstrap inférieure à la taille de l'échantillon d'origine. Néanmoins, cette dernière technique bootstrap est moins fiable que le bootstrap non paramétrique. C'est pourquoi dans cette thèse, une nouvelle méthode bootstrap est introduite, le bootstrap raffiné, qui permet de supprimer les inconvénients du bootstrap non paramétrique et du bootstrap ayant une taille d'échantillon inférieure à la taille de l'échantillon d'origine. Enfin, le comportement du bootstrap raffiné est étudié à l'aide de simulations et sa performance est illustrée à travers les rendements des fonds de couverture et les sauts de rendements du marché à long terme basé sur l'indice S&P500
The supremacy of the stable Paretian distributions over the Gaussian distributions is by now a stylized fact in the financial theory and pratice. It is well known that the asymptotic inference about the expected returns is not always reliable and the nonparametric bootstrap can be used as an alternative. However, several studies have emphazide the fact that the nonparametric bootstrap is invalid foe the stable Paretian distributions. The reason is that the expected returns are highly influenced by the risk of the investement opportunities, risk which is always greater in stable Paretian financial market than in a Gaussian market. The widely accepted solution to the nonparametric bootstrap failure is the m out of n bootstrap. But, in this thesis it is shown that the m out of n bootstrap can also fail to provide valid inference results in small sample and can perform worse. Than the nonparametric bootstrap. In addition, in this dissertation a refined bootstrap method that overcomes the drawbacks of both of the nonparametric bootstrap and the m out of m bootstrap, is introduced. Then, the behavior of the refined boostrap is investigated through a simulation study. Finally, its performance is illustrated using returns of hedge funds and jumps of the futures S&P500 index
APA, Harvard, Vancouver, ISO, and other styles
48

Maynadier, Jérôme. "Approches statistiques et fiabilités en dynamique des structures." Toulouse, INSA, 2003. http://www.theses.fr/2003ISAT0017.

Full text
Abstract:
L'amélioration de la fiabilité des structures à symétrie cyclique des turbomachines nécessite une estimation précise des vibrations extrêmes qu'atteignent ces composants. Les amplitudes de réponse des structures à symétrie cyclique varient significativement en fonction de petites perturbations structurales nommées désaccords. En général, les désaccords sont des paramètres aléatoires. Leur effet sur les amplitudes de vibrations est encore estimé à partir de l'expérience de chaque motoriste. Pour faire face aux évolutions technologiques les approches numériques sont cependant nécessaires. En dynamique des structures, la méthode classique pour estimer la probabilité d'atteindre une amplitude vibratoire est la méthode de Monte-Carlo, efficace pour les probabilités les plus grandes, mais extrêmement coûteuse en temps de calcul pour les probabilités faibles. Les amplitudes de vibrations critiques correspondant précisément aux petites probabilités, les approches probabilistes FORM et SORM sont d'abord envisagées. Nous développons ensuite une méthode originale dite " méthode à variables séparées ". Enfin, une approche statistique fondée sur les modèles de valeurs extrêmes, pour estimer la distribution des amplitudes les plus grandes à partir d'un nombre restreint de simulations est retenue : la distribution généralisée de Pareto,modélisant la probabilité de dépassement d'un seuil. Après avoir validé ces différentes approches sur des exemples académiques, les plus performantes sont appliquées à une structure à symétrie cyclique modélisée par un système réduit. Ce type de modélisation simplifiée permet de représenter la plupart des configurations rencontrées en fonctionnement
The improvement of the cyclic symmetry structures in turboshaft engines requires an accurate valuation of extreme vibrations which are reaching by these components. The amplitudes of the response of cyclic symmetry structures vary significantly in function of small perturbations named "mistuning". In general, mistunings are random parameters. Usually their effects on the vibration amplitudes are estimated from the experience of each motorist. Hence, at the present time, they are verified with the help of experiences by installation of strain gauges on pieces. To anticipate the evolutions of technologies the numerical approaches are necessary. In structure dynamics, the classical approach used to estimate the probability to reach a vibratory amplitude is the Monte Carlo method, efficient to the biggest probabilities, but extremely expensive when probabilities decrease. The most critical vibration amplitudes corresponding to the lowest probabilities, the probabilistic methods FORM and SORM are first considered. We develop then an original method named "separated variables method". Finally, a statistical approach by extreme values distribution on threshold overstepping with a Pareto law is kept to predict the queue of the distribution of the maximal amplitude of the forced responses. This law bases on a minimum quantities of simulations. After the validation of these different approaches on academic examples, the most efficient one are applied on industrial cases. We consider a cyclic symmetric structure modelled by a reduced model. This type of simplified modelization is able to represent the greatest part of configurations met when running
APA, Harvard, Vancouver, ISO, and other styles
49

Le, Bas Pierre-Yves. "Diffusion multiple par des cibles élastiques immergées : propagation d'ondes cohérentes et interactions résonantes." Le Havre, 2004. http://www.theses.fr/2004LEHA0007.

Full text
Abstract:
Cette thèse traite de la diffusion multiple par des diffuseurs cylindriques aléatoirement répartis dans un liquide. Une première partie théorique et expérimentale menée dans le cadre d'un nombre restreint de diffuseurs, présente les phénomènes de couplages résonants pouvant intervenir pour des diffuseurs proches. Dans une seconde partie, deux théories de milieu effectif sont présentées : celle de Waterman et Truell et celle de Fikioris et Waterman (FW). Les coefficients de réflexion (R) et de transmission (T) par une couche de milieu multi-diffuseur s'expriment comme ceux d'une plaque fluide permettant une analogie avec un milieu fluide. Les diffuseurs sont ensuite remplacés par des associations de tubes afin d'étudier un milieu anisotrope. Les paramètres du milieu effectif et les coefficients R et T sont calculés. Ces derniers se mettent sous la forme de ceux associés à un milieu fictif fluide dont la vitesse de phase et l'atténuation varient en fonction de la direction de propagation
This work deals with the multiple scattering by cylindrical shells randomly placed in a liquid. A first part presents the resonant coupling between close shells a few shells. An experimental validation is made. The second part presents two effective media theories: Waterman and Truell's and the Fikioris and Waterman's one. The reflection and transmission coefficients by a slab like region of the multiple scattering medium are similar to the ones obtained by considering a fluid slab alloying an analogy with a fluid medium. The shells are, then, replaced by a set of close shells in order to study an anisotropic medium. The parameters of the effective medium and the reflection and transmission coefficient are calculated. The reflection and transmission coefficients can be expressed as the ones of a fictitious fluid-like slab for which the phase velocity and the attenuation would be dependent of the direction of propagation
APA, Harvard, Vancouver, ISO, and other styles
50

Pham, Quang Khoai. "Estimation non paramétrique adaptative dans la théorie des valeurs extrêmes : application en environnement." Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS361/document.

Full text
Abstract:
L'objectif de cette thèse est de développer des méthodes statistiques basées sur la théorie des valeurs extrêmes pour estimer des probabilités d'évènements rares et des quantiles extrêmes conditionnelles. Nous considérons une suite de variables aléatoires indépendantes X_{t_1}$, $X_{t_2}$,...$,$X_{t_n}$ associées aux temps $0≤t_{1}< …
The objective of this PhD thesis is to develop statistical methods based on the theory of extreme values to estimate the probabilities of rare events and conditional extreme quantiles. We consider independent random variables $X_{t_1},…,X_{t_n}$ associated to a sequence of times $0 ≤t_1 <… < t_n ≤ T_{\max}$ where $X_{t_i}$ has distribution function $F_{t_i}$ and $F_t$ is the conditional distribution of $X$ given $T = t \in [0,T_{\max}]$. For each $ t \in [0, T {\max}]$, we propose a nonparametric adaptive estimator for extreme quantiles of $F_t$. The idea of our approach is to adjust the tail of the distribution function $F_t$ with a Pareto distribution of parameter $\theta {t,\tau}$ starting from a threshold $\tau$. The parameter $\theta {t,\tau}$ is estimated using a nonparametric kernel estimator of bandwidth $h$ based on the observations larger than $\tau$. We propose a sequence testing based procedure for the choice of the threshold $\tau$ and we determine the bandwidth $h$ by two methods: cross validation and an adaptive procedure. Under some regularity assumptions, we prove that the adaptive estimator of $\theta {t, \tau}$ is consistent and we determine its rate of convergence. We also propose a method to choose simultaneously the threshold $\tau$ and the bandwidth $h$. Finally, we study the proposed procedures by simulation and on real data set to contribute to the survey of aquatic systems
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography