To see the other types of publications on this topic, follow the link: Discrete probabilities.

Dissertations / Theses on the topic 'Discrete probabilities'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 33 dissertations / theses for your research on the topic 'Discrete probabilities.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Le, cousin Jean-Maxime. "Asymptotique des feux rares dans le modèle des feux de forêts." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1018/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à deux modèles de feux de forêts définis sur Z. On étudie le modèle des feux de forêts sur Z avec propagation non instantanée dans le chapitre 2. Dans ce modèle, chaque site a trois états possibles : vide, occupé ou en feu. Un site vide devient occupé avec taux 1. Sur chaque site, des allumettes tombent avec taux λ. Si le site est occupé, il brûle pendant un temps exponentiel de paramètre π avant de se propager à ses deux voisins. S’ils sont eux-mêmes occupés, ils brûlent, sinon le feu s’éteint. On étudie l’asymptotique des feux rares c’est à dire la limite du processus lorsque λ → 0 et π → ∞. On montre qu’il y a trois catégories possibles de limites d’échelles, selon le régime dans lequel λ tend vers 0 et π vers l’infini. On étudie formellement et brièvement dans le chapitre 3 le modèle des feux de forêts sur Z en environnement aléatoire. Dans ce modèle, chaque site n’a que deux états possibles : vide ou occupé. On se donne un paramètre λ > 0, une loi ν sur (0 ,∞) et une suite (κi)i∈Z de variables aléatoires indépendantes identiquement distribuées selon ν. Un site vide i devient occupé avec taux κi. Sur chaque site, des allumettes tombent avec taux λ et détruisent immédiatement la composante de sites occupés correspondante. On étudie l’asymptotique des feux rares. Sous une hypothèse raisonnable sur ν, on espère que le processus converge, avec une renormalisation correcte, vers un modèle limite. On s’attend à distinguer trois processus limites différents
The aim of this work is to study two differents forest-fire processes defined on Z. In Chapter 2, we study the so-called one dimensional forest-fire process with non instantaeous propagation. In this model, each site has three possible states: ’vacant’, ’occupied’ or ’burning’. Vacant sites become occupied at rate 1. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, a fire starts and propagates to neighbors at rate π. We study the asymptotic behavior of this process as λ → 0 and π → ∞. We show that there are three possible classes of scaling limits, according to the regime in which λ → 0 and π → ∞. In Chapter 3, we study formally and briefly the so-called one dimensional forest-fire processes in random media. Here, each site has only two possible states: ’vacant’ or occupied’. Consider a parameter λ > 0, a probability distribution ν on (0 ,∞) as well as (κi)i∈Z an i.i.d. sequence of random variables with law ν. A vacant site i becomes occupied at rate κi. At each site, ignition (by lightning) occurs at rate λ. When a site is ignited, the fire destroys the corresponding component of occupied sites. We study the asymptotic behavior of this process as λ → 0. Under some quite reasonable assumptions on the law ν, we hope that the process converges, with a correct normalization, to a limit forest fire model. We expect that there are three possible classes of scaling limits
APA, Harvard, Vancouver, ISO, and other styles
2

Lee, Wai Ha. "Continuous and discrete properties of stochastic processes." Thesis, University of Nottingham, 2010. http://eprints.nottingham.ac.uk/11194/.

Full text
Abstract:
This thesis considers the interplay between the continuous and discrete properties of random stochastic processes. It is shown that the special cases of the one-sided Lévy-stable distributions can be connected to the class of discrete-stable distributions through a doubly-stochastic Poisson transform. This facilitates the creation of a one-sided stable process for which the N-fold statistics can be factorised explicitly. The evolution of the probability density functions is found through a Fokker-Planck style equation which is of the integro-differential type and contains non-local effects which are different for those postulated for a symmetric-stable process, or indeed the Gaussian process. Using the same Poisson transform interrelationship, an exact method for generating discrete-stable variates is found. It has already been shown that discrete-stable distributions occur in the crossing statistics of continuous processes whose autocorrelation exhibits fractal properties. The statistical properties of a nonlinear filter analogue of a phase-screen model are calculated, and the level crossings of the intensity analysed. It is found that rather than being Poisson, the distribution of the number of crossings over a long integration time is either binomial or negative binomial, depending solely on the Fano factor. The asymptotic properties of the inter-event density of the process are found to be accurately approximated by a function of the Fano factor and the mean of the crossings alone.
APA, Harvard, Vancouver, ISO, and other styles
3

Sahinci, Erin. "Optimal estimation of discrete fault probabilities using a stochastic state model." Diss., Georgia Institute of Technology, 1998. http://hdl.handle.net/1853/16888.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Peng, Linghua. "Normalizing constant estimation for discrete distribution simulation /." Digital version accessible at:, 1998. http://wwwlib.umi.com/cr/utexas/main.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Mu, Xiaoyu. "Ruin probabilities with dependent forces of interest." [Johnson City, Tenn. : East Tennessee State University], 2003. https://dc.etsu.edu/etd/796.

Full text
Abstract:
Thesis (M.S.)--East Tennessee State University, 2003.
Title from electronic submission form. ETSU ETD database URN: etd-0713103-233105. Includes bibliographical references. Also available via Internet at the UMI web site.
APA, Harvard, Vancouver, ISO, and other styles
6

Vieira, Francisco Zuilton Gonçalves. "Cadeias de Markov homogêneas discretas." [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306581.

Full text
Abstract:
Orientador: Simão Nicolau Stelmastchuk
Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica
Made available in DSpace on 2018-08-17T21:13:11Z (GMT). No. of bitstreams: 1 Vieira_FranciscoZuiltonGoncalves_M.pdf: 2460011 bytes, checksum: bb34e809ab256fe3bb3b1bd74fc35eec (MD5) Previous issue date: 2011
Resumo: Esta dissertação tem como tema o estudo das cadeias de Markov discretas com valores em um espaço de estados enumerável. Cadeias de Markov são processos estocásticos no seguinte sentido: dado o momento presente, o futuro não depende do passado, mas somente do momento presente. Nosso estudo é realizado sobre cadeias de Markov homogêneas (CMH) discretas. Inicialmente, introduzimos a definição e conceitos básicos das CMH discretas. Tais estudos nos conduzem ao conceito de topologia das matrizes de Transição associada as CMH. A topologia de tais cadeias é a ferramenta necessária para o estudo dos conjuntos recorrentes e transcientes, os quais são de grande importância nesta teoria. O estudo de estados estacionários e a propriedade forte de Markov também são abordados. Esta última propriedade serve para construção do conceito de estado recorrente. A partir deste último conceito trabalhamos com os conceitos de positivo e nulo recorrente. Por fim, estudamos o importante conceito de tempo absorção, o qual é entendido como o tempo que algum estado é absorvido a um conjunto recorrente
Abstract: This dissertation deals with the study of discrete Markov chains with values in a countable state space. Markov chains are processes stochastic in the following sense: given the present moment, the future does not depend on the past, but only in the present moment. Our study is conducted on homogeneous Markov chains (HMC) discrete. Initially, we introduced the definition and the basic concepts of discrete HMC. Such studies lead us to understand the concept of topology Transition matrices associated to HMC. The topology of these chains is a necessary tool for the study of the recurrent and transient sets, which are of great importance in this theory. The study of steady states and the strong Markov properties are also addressed. This latter property serves to build the concept of recurrent state. From this latter concept we work with the concepts of positive and null recurrent. Finally, we studied the important concept of absorption time, which is understood as the time that some state is absorbed to a set recurrent
Mestrado
Matematica
Mestre em Matemática
APA, Harvard, Vancouver, ISO, and other styles
7

Rousse, Sophie. "Discret et continu au lycée. Enjeux de ces notions à travers l'étude de l'enseignement de l'analyse et des probabilités." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC138/document.

Full text
Abstract:
Le discret et le continu sont explicitement présents dans les programmes scolaires officiels, depuis 2001, sans qu’ils ne fassent l’objet de définitions ni de théorèmes. Où se logent-ils ? Sont-ils source de difficultés pour les élèves ? Comment décrire, d’un point de vue didactique, ce type de notion ? Nos analyses s’inscrivent dans le cadrage de la théorie de l’activité adaptée à la didactique des mathématiques ; pour apprécier la réalité de l’enseignement et compte tenu du côté diffus du discret et du continu dans les mathématiques à enseigner, nous avons été amenée à analyser un spectre large de données, à l’aide d’outils provenant principalement de ce cadre théorique, et d’une méthodologie guidée par la multiplicité des aspects du discret et du continu mis en lumière par une analyse épistémo-mathématique préliminaire. Nous prenons pour support de cette étude l’enseignement de l’analyse et des probabilités au lycée général. Les documents officiels, manuels, épreuves d’examens nationaux, copies et entretiens d’élèves nous permettent de dessiner le relief des notions abordées dans ces deux thèmes ; les questionnaires, capsules vidéo sur internet et une séance en classe nous donnent un aperçu des conceptions et des pratiques de futurs enseignants ainsi que d’enseignants en exercice. Ces analyses permettent de révéler deux « mondes » qui se côtoient, voire s’interpénètrent par l’intermédiaire de notions, de vocabulaire, de techniques plus ou moins analogues, qui présentent aussi des ruptures importantes, sources de difficultés pour les élèves, qui mériteraient davantage d’explicitations dans les mathématiques enseignées. Elles soulignent aussi un changement de paradigme en cours dans l’enseignement des mathématiques, qui fait aujourd’hui une plus grande place à la modélisation et par conséquent aux jeux entre discret et continu
The notions of discrete and continuous have been explicitly present in French secondary school curricula since 2001, while being neither defined nor the subject matter of theorems. Therefore, where can they be found ? Do students have difficulties regarding these notions? How could we describe them from a didactic perspective? This work comes within the framework of the activity theory as it has been adapted to mathematics education ; the notions of discrete and continuous are spread throughout the mathematics to be taught, leading us to analyze a large range of data, with tools that this theoretical framework provides. The methodology stems from the multiple aspects of discrete and continuous as highlighted in a preliminary epistemo-mathematic analysis. This study is based on the teaching of Calculus and Probability in French secondary school. Official documents, textbooks, national exams, student papers and interviews, enable us to describe the “relief” of the notions pertaining to both themes ; in addition, questionnaires, internet videos, a classroom session provide us with a general idea of teachers’ conceptions and practice. These analyses reveal two “worlds” which come close, sometimes interfering through more or less similar notions, vocabulary and techniques, other times with important ruptures ; those interferences are source of some students’ difficulties and could be more explicit in the teaching process. Furthermore, they underline a current change in the French mathematics education paradigm, in which modeling takes a greater part and consequently gives more room for interplay between discrete and continuous
APA, Harvard, Vancouver, ISO, and other styles
8

Scorbureanu, Alexandrina-Ioana. "Discrete choice models applied to travel demand analysis : focus on risk and heterogeneity." Thesis, Cachan, Ecole normale supérieure, 2012. http://www.theses.fr/2012DENS0044.

Full text
Abstract:
La thèse se propose d'intégrer deux approches économiques fondamentales à l'étude de l'économie régionale et de la politique économique des transports en particulier: i) un approche théorique, fondée sur des micromodèles analytiques et soutenue par des applications des méthodes de simulation numérique, et ensuite, ii) un approche empirique pour tester des hypothèses théorétiques. La perspective de microéconomie sur les problématiques et le fonctionnement des mécanismes des transports privés sont, au même temps, nécessaires et ardues à modéliser. Parmi les nombreuses problématiques étudiés dans le cadre de cet domaine de recherche il vaut la peine de mentionner: la taxation des routes, la concurrence parfaite et oligopolistique entre les opérateurs que anime le système des transports privées et de marchandises, la congestion des routes et le comportement des usagers face à l'incertitude relative aux temps de trajet où encore, le processus de décision en matière de transports au sein des ménages. L'approche micro-fondée liée aux problématiques ci-dessus a été intégrée au sein de cet étude avec une vision empirique, menée à l'analyse de l'ensemble des politiques de plani cation au niveau régional et urbain. Les deux applications empiriques présentées montrent deux nouvelles méthodologies d'étude concernant deux problématiques classiques: i) le choix modale, dans une optique de décision conjointe observée sur un échantillon des couples résidents en Ile-de-France et, ii) le choix de route en Moyen Orient, où les temps de trajet sont incertains et dépends d'un scenario politique incertain au niveau macroéconomique. L'intégration des deux approches est réalisée dans le cadre de cette thèse ayant comme exigence celle de mieux répondre aux questions concrètes et actuelles de la recherche européenne, ainsi que pour augmenter la palette des débouchées applicatives des modèles théoriques développées dans la littérature récente
This thesis aims to integrate two fundamental approaches to the study of regional economics and the transport policy: i) a theoretical approach based on analytic models supported by numerical simulation and ii) an empirical approach to test theoretical assumptions. The microeconomic perspective represents a challenging and a complex task at the same time. Some of the open issues at the center of debate are: the taxation of roads, perfect and imperfect competition among the networks supporting private trips, congestion pricing and the attitude towards risky outcomes as uncertain travel times, the decision making process and resource sharing among different members of a household. The micro approach has been integrated with two empirical experiments in which we propose new approaches to study two traditional problems: i) modal choice, by testing the jointness of decision making on a sample of active couples from Ile-de-France, and ii) route choice in the Middle East - a context in which the travel time, as an input of the decision process, is characterized by uncertainty and depends on the political scenario at the macro level
APA, Harvard, Vancouver, ISO, and other styles
9

De, Félice Sven. "Automates codéterministes et automates acycliques : analyse d'algorithmes et génération aléatoire." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1111/document.

Full text
Abstract:
Le cadre générale de cette thèse est l'analyse quantitative des objets issus de la théorie des langages rationnels. On adapte des techniques d'analyse d'algorithmes (complexité en moyenne, complexité générique, génération aléatoire, ...) à des objets et à des algorithmes qui font intervenir des classes particulières d'automates. Dans une première partie nous étudions la complexité de l'algorithme de minimisation de Brzozowski. Bien qu'ayant une mauvaise complexité dans le pire des cas, cet algorithme a la réputation d'être efficace en pratique. En utilisant les propriétés typiques des applications et des permutations aléatoires, nous montrons que la complexité générique de l'algorithme de Brzozowski appliqué à un automate déterministe croît plus vite que tout polynôme en n, où n est le nombre d'états de l'automate. Dans une seconde partie nous nous intéressons à la génération aléatoire d'automates acycliques. Ces automates sont ceux qui reconnaissent les ensembles finis de mots et sont de ce fait utilisés dans de nombreuses applications, notamment en traitement automatique des langues. Nous proposons deux générateurs aléatoires. Le premier utilise le modèle des chaînes de Markov, et le second utilise la "méthode récursive", qui tire partie des décompositions combinatoires des objets pour faire de la génération. La première méthode est souple mais difficile à calibrer, la seconde s'avère plutôt efficace. Une fois implantée, cette dernière nous a notamment permis d'observer les propriétés typiques des grands automates acycliques aléatoires
The general context of this thesis is the quantitative analysis of objects coming from rational language theory. We adapt techniques from the field of analysis of algorithms (average-case complexity, generic complexity, random generation...) to objects and algorithms that involve particular classes of automata. In a first part we study the complexity of Brzozowski's minimisation algorithm. Although the worst-case complexity of this algorithm is bad, it is known to be efficient in practice. Using typical properties of random mappings and random permutations, we show that the generic complexityof Brzozowski's algorithm grows faster than any polynomial in n, where n is the number of states of the automaton. In a second part, we study the random generation of acyclic automata. These automata recognize the finite sets of words, and for this reason they are widely use in applications, especially in natural language processing. We present two random generators, one using a model of Markov chain, the other a ``recursive method", based on a cominatorics decomposition of structures. The first method can be applied in many situations cases but is very difficult to calibrate, the second method is more efficient. Once implemented, this second method allows to observe typical properties of acyclic automata of large size
APA, Harvard, Vancouver, ISO, and other styles
10

Mathéus, Frédéric. "Probabilités et géométrie dans certains groupes de type fini." Habilitation à diriger des recherches, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00919399.

Full text
Abstract:
Dans de nombreux phénomènes régis par le hasard, le résultat de l'observation provient de la combinaison aléatoire d'événements élémentaires : le gain d'un joueur au jeu de pile ou face est le résultat de parties successives, mélanger un jeu de cartes s'effectue en plusieurs battages consécutifs, l'enchevêtrement d'une molécule d'ADN dans une cellule est le produit, entre autres, de croisements successifs. Ces événements élémentaires ont la particularité d'être réversibles (gagner/perdre au pile ou face, croiser/décroiser des brins d'ADN) et l'aléa régissant leur combinaison possède une certaine indépendance (l'issue d'une partie de pile ou face n'a a priori aucune influence sur la suivante). Un modèle possible pour ces phénomènes consiste à considérer un groupe G, fini ou dénombrable, que l'on munit d'une mesure de probabilité μ. On effectue des tirages successifs d'éléments dans G avec les hypothèses suivantes : les tirages sont indépendants, et, pour chaque tirage, μ(g) est la probabilité de tirer l'élément g. Si g1, g2,...,gn est le résul- tat de n tirages, on forme le produit g1.g2. ... . gn. C'est, par définition, la position à l'instant n de la marche aléatoire sur G de loi μ, et la question est : que peut-on dire du comportement asymptotique de g1.g2. ... .gn lorsque n augmente in- définiment ? La marche aléatoire s'en va-t'elle à l'infini ? Si oui, dans quelle direction ? Et à quelle vitesse ? Mes travaux depuis 2003 sont consacrés, pour l'essentiel, à l'étude du comportement asymptotique des marches aléatoires dans trois familles de groupes infinis, non abéliens et de type fini : les produits libres de groupes finis, les groupes d'Artin diédraux, ainsi que certaines extensions des groupes libres. Ils sont le fruit de collaborations avec Jean Mairesse (CNRS, Paris VI) et François Gautero (Université de Nice). Dans le cas des produits libres de groupes finis, nous décrivons précisément la mesure harmonique pour les marches aléatoires au plus proche voisin dans ces groupes, ce qui permet de calculer la vitesse et l'entropie asymptotique. En particulier, ces quantités dépendent de façon analytique des coefficients de μ. Considérant l'inégalité fondamentale de Yves Guivarc'h entre vitesse, entropie et croissance, nous montrons que les générateurs canoniques des produits libres de groupes finis sont extrémaux au sens de Vershik. Les groupes d'Artin diédraux forment une classe de groupes d'Artin qui généralise le groupe de tresses à trois brins B3 et pour laquelle nous donnons une description précise des géodésiques. La connaissance de la vitesse de fuite des marches aléatoires au plus proche voisin dans le groupe B3 est un premier outil de mesure de la complexité asymptotique d'une tresse aléatoire. Dans ce cas, on montre que la vitesse dépend de façon lipschitzienne mais non différentiable de μ, faisant apparaître certaines transitions de phase. Enfin, en ce qui concerne les extensions du groupe libre, nous montrons que, dans certains cas (comprenant notamment les extensions cycliques) les fonctions μ-harmoniques bornées sont entièrement décrites via le bord du groupe libre sous-jacent. La preuve repose sur l'existence d'actions non triviales de ces groupes sur des arbres réels, couplée à des critères généraux sur les compactifications des groupes développés par Vadim Kaimanovich.
APA, Harvard, Vancouver, ISO, and other styles
11

Boissard, Emmanuel. "Problèmes d'interaction discret-continu et distances de Wasserstein." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1389/.

Full text
Abstract:
On étudie dans ce manuscrit plusieurs problèmes d'approximation à l'aide des outils de la théorie du transport optimal. Les distances de Wasserstein fournissent des bornes d'erreur pour l'approximation particulaire des solutions de certaines équations aux dérivées partielles. Elles jouent également le rôle de mesures de distorsion naturelles dans les problèmes de quantification et de partitionnement ("clustering"). Un problème associé à ces questions est d'étudier la vitesse de convergence dans la loi des grands nombres empirique pour cette distorsion. La première partie de cette thèse établit des bornes non-asymptotiques, en particulier dans des espaces de Banach de dimension infinie, ainsi que dans les cas où les observations sont non-indépendantes. La seconde partie est consacrée à l'étude de deux modèles issus de la modélisation des déplacements de populations d'animaux. On introduit un nouveau modèle individu-centré de formation de pistes de fourmis, que l'on étudie expérimentalement à travers des simulations numériques et une représentation en terme d'équations cinétiques. On étudie également une variante du modèle de Cucker-Smale de mouvement d'une nuée d'oiseaux : on montre le caractère bien posé de l'équation de transport de type Vlasov associée, et on établit des résultats sur le comportement en temps long de cette équation. Enfin, dans une troisième partie, on étudie certaines applications statistiques de la notion de barycentre dans l'espace des mesures de probabilités muni de la distance de Wasserstein, récemment introduite par M. Agueh et G. Carlier
We study several problems of approximation using tools from Optimal Transportation theory. The family of Wasserstein metrics are used to provide error bounds for particular approximation of some Partial Differential Equations. They also come into play as natural measures of distorsion for quantization and clustering problems. A problem related to these questions is to estimate the speed of convergence in the empirical law of large numbers for these distorsions. The first part of this thesis provides non-asymptotic bounds, notably in infinite-dimensional Banach spaces, as well as in cases where independence is removed. The second part is dedicated to the study of two models from the modelling of animal displacement. A new individual-based model for ant trail formation is introduced, and studied through numerical simulations and kinetic formulation. We also study a variant of the Cucker-Smale model of bird flock motion : we establish well-posedness of the associated Vlasov-type transport equation as well as long-time behaviour results. In a third part, we study some statistical applications of the notion of barycenter in Wasserstein space recently introduced by M. Agueh and G. Carlier
APA, Harvard, Vancouver, ISO, and other styles
12

Laslier, Benoît. "Dynamique stochastique d'interface discrète et modèles de dimères." Phd thesis, Université Claude Bernard - Lyon I, 2014. http://tel.archives-ouvertes.fr/tel-01044463.

Full text
Abstract:
Nous avons étudié la dynamique de Glauber sur les pavages de domaines finies du plan par des losanges ou par des dominos de taille 2 × 1. Ces pavages sont naturellement associés à des surfaces de R^3, qui peuvent être vues comme des interfaces dans des modèles de physique statistique. En particulier les pavages par des losanges correspondent au modèle d'Ising tridimensionnel à température nulle. Plus précisément les pavages d'un domaine sont en bijection avec les configurations d'Ising vérifiant certaines conditions au bord (dépendant du domaine pavé). Ces conditions forcent la coexistence des phases + et - ainsi que la position du bord de l'interface. Dans la limite thermodynamique où L, la longueur caractéristique du système, tend vers l'infini, ces interfaces obéissent à une loi des grand nombre et convergent vers une forme limite déterministe ne dépendant que des conditions aux bord. Dans le cas où la forme limite est planaire et pour les losanges, Caputo, Martinelli et Toninelli [CMT12] ont montré que le temps de mélange Tmix de la dynamique est d'ordre O(L^{2+o(1)}) (scaling diffusif). Nous avons généralisé ce résultat aux pavages par des dominos, toujours dans le cas d'une forme limite planaire. Nous avons aussi prouvé une borne inférieure Tmix ≥ cL^2 qui améliore d'un facteur log le résultat de [CMT12]. Dans le cas où la forme limite n'est pas planaire, elle peut être analytique ou bien contenir des parties "gelées" où elle est en un sens dégénérée. Dans le cas où elle n'a pas de telle partie gelée, et pour les pavages par des losanges, nous avons montré que la dynamique de Glauber devient "macroscopiquement proche" de l'équilibre en un temps L^{2+o(1)}
APA, Harvard, Vancouver, ISO, and other styles
13

Jeunesse, Maxence. "Etude de deux problèmes de contrôle stochastique : Put Américain avec dividendes discrets et principe de programmation dynamique avec contraintes en probabilités." Phd thesis, Université de Marne la Vallée, 2013. http://tel.archives-ouvertes.fr/tel-00940506.

Full text
Abstract:
Dans cette thèse, nous traitons deux problèmes de contrôle optimal stochastique. Chaque problème correspond à une Partie de ce document. Le premier problème traité est très précis, il s'agit de la valorisation des contrats optionnels de vente de type Américain (dit Put Américain) en présence de dividendes discrets (Partie I). Le deuxième est plus général, puisqu'il s'agit dans un cadre discret en temps de prouver l'existence d'un principe de programmation dynamique sous des contraintes en probabilités (Partie II). Bien que les deux problèmes soient assez distincts, le principe de programmation dynamique est au coeur de ces deux problèmes. La relation entre la valorisation d'un Put Américain et un problème de frontière libre a été prouvée par McKean. La frontière de ce problème a une signification économique claire puisqu'elle correspond à tout instant à la borne supérieure de l'ensemble des prix d'actifs pour lesquels il est préférable d'exercer tout de suite son droit de vente. La forme de cette frontière en présence de dividendes discrets n'avait pas été résolue à notre connaissance. Sous l'hypothèse que le dividende est une fonction déterministe du prix de l'actif à l'instant précédant son versement, nous étudions donc comment la frontière est modifiée. Au voisinage des dates de dividende, et dans le modèle du Chapitre 3, nous savons qualifier la monotonie de la frontière, et dans certains cas quantifier son comportement local. Dans le Chapitre 3, nous montrons que la propriété du smooth-fit est satisfaite à toute date sauf celles de versement des dividendes. Dans les deux Chapitres 3 et 4, nous donnons des conditions pour garantir la continuité de cette frontière en dehors des dates de dividende. La Partie II est originellement motivée par la gestion optimale de la production d'une centrale hydro-electrique avec une contrainte en probabilité sur le niveau d'eau du barrage à certaines dates. En utilisant les travaux de Balder sur la relaxation de Young des problèmes de commande optimale, nous nous intéressons plus spécifiquement à leur résolution par programmation dynamique. Dans le Chapitre 5, nous étendons au cadre des mesures de Young des résultats dûs à Evstigneev. Nous établissons alors qu'il est possible de résoudre par programmation dynamique certains problèmes avec des contraintes en espérances conditionnelles. Grâce aux travaux de Bouchard, Elie, Soner et Touzi sur les problèmes de cible stochastique avec perte contrôlée, nous montrons dans le Chapitre 6 qu'un problème avec contrainte en espérance peut se ramener à un problème avec des contraintes en espérances conditionnelles. Comme cas particulier, nous prouvons ainsi que le problème initial de la gestion du barrage peut se résoudre par programmation dynamique.
APA, Harvard, Vancouver, ISO, and other styles
14

Jeunesse, Maxence. "Etude de deux problèmes de contrôle stochastique : put americain avec dividendes discrets et principe de programmation dynamique avec contraintes en probabilités." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1012/document.

Full text
Abstract:
Dans cette thèse, nous traitons deux problèmes de contrôle optimal stochastique. Chaque problème correspond à une Partie de ce document. Le premier problème traité est très précis, il s'agit de la valorisation des contrats optionnels de vente de type Américain (dit Put Américain) en présence de dividendes discrets (Partie I). Le deuxième est plus général, puisqu'il s'agit dans un cadre discret en temps de prouver l'existence d'un principe de programmation dynamique sous des contraintes en probabilités (Partie II). Bien que les deux problèmes soient assez distincts, le principe de programmation dynamique est au coeur de ces deux problèmes. La relation entre la valorisation d'un Put Américain et un problème de frontière libre a été prouvée par McKean. La frontière de ce problème a une signification économique claire puisqu'elle correspond à tout instant à la borne supérieure de l'ensemble des prix d'actifs pour lesquels il est préférable d'exercer tout de suite son droit de vente. La forme de cette frontière en présence de dividendes discrets n'avait pas été résolue à notre connaissance. Sous l'hypothèse que le dividende est une fonction déterministe du prix de l'actif à l'instant précédant son versement, nous étudions donc comment la frontière est modifiée. Au voisinage des dates de dividende, et dans le modèle du Chapitre 3, nous savons qualifier la monotonie de la frontière, et dans certains cas quantifier son comportement local. Dans le Chapitre 3, nous montrons que la propriété du smooth-fit est satisfaite à toute date sauf celles de versement des dividendes. Dans les deux Chapitres 3 et 4, nous donnons des conditions pour garantir la continuité de cette frontière en dehors des dates de dividende. La Partie II est originellement motivée par la gestion optimale de la production d'une centrale hydro-electrique avec une contrainte en probabilité sur le niveau d'eau du barrage à certaines dates. En utilisant les travaux de Balder sur la relaxation de Young des problèmes de commande optimale, nous nous intéressons plus spécifiquement à leur résolution par programmation dynamique. Dans le Chapitre 5, nous étendons au cadre des mesures de Young des résultats dûs à Evstigneev. Nous établissons alors qu'il est possible de résoudre par programmation dynamique certains problèmes avec des contraintes en espérances conditionnelles. Grâce aux travaux de Bouchard, Elie, Soner et Touzi sur les problèmes de cible stochastique avec perte contrôlée, nous montrons dans le Chapitre 6 qu'un problème avec contrainte en espérance peut se ramener à un problème avec des contraintes en espérances conditionnelles. Comme cas particulier, nous prouvons ainsi que le problème initial de la gestion du barrage peut se résoudre par programmation dynamique
In this thesis, we address two problems of stochastic optimal control. Each problem constitutes a different Part in this document. The first problem addressed is very precise, it is the valuation of American contingent claims and more specifically the American Put in the presence of discrete dividends (Part I). The second one is more general, since it is the proof of the existence of a dynamic programming principle under expectation constraints in a discrete time framework (Part II). Although the two problems are quite distinct, the dynamic programming principle is at the heart of these two problems. The relationship between the value of an American Put and a free boundary problem has been proved by McKean. The boundary of this problem has a clear economic meaning since it corresponds at all times to the upper limit of the asset price above which the holder of such an option would exercise immediately his right to sell. The shape of the boundary in the presence of discrete dividends has not been solved to the best of our knowledge. Under the assumption that the dividend is a deterministic function of asset prices at the date just before the dividend payment, we investigate how the boundary is modified. In the neighborhood of dividend dates and in the model of Chapter 3, we know what the monotonicity of the border is, and we quantify its local behavior. In Chapter 3, we show that the smooth-fit property is satisfied at any date except for those of the payment of dividends. In both Chapters 3 and 4, we are able to give conditions to guarantee the continuity of the border outside dates of dividend. Part II was originally motivated by the optimal management of the production of an hydro-electric power plant with a probability constraint on the reservoir level on certain dates. Using Balder'sworks on Young's relaxation of optimal control problems, we focus more specifically on their resolution by dynamic programming. In Chapter 5, we extend results of Evstigneev to the framework of Young measures. We show that dynamic programming can be used to solve some problems with conditional expectations constraints. Through the ideas of Bouchard, Elie, Soner and Touzi on stochastic target problems with controlled loss, we show in Chapter 6 that a problem with expectation constraints can be reduced to a problem with conditional expectation constraints. Finally, as a special case, we show that the initial problem of dam management can be solved by dynamic programming
APA, Harvard, Vancouver, ISO, and other styles
15

Halconruy, Hélène. "Calcul de Malliavin et structures de Dirichlet pour des variables aléatoires indépendantes." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT016.

Full text
Abstract:
Cette thèse porte sur le calcul de Malliavin dont on munit deux cadres discrets. On équipe tout produit dénombrable d'espaces de probabilités d'une structure de Dirichlet-Malliavin au moyen d'opérateurs (gradient, divergence, opérateur nombre), d'une formule d'intégration par parties, et des formes de Dirichlet induites. On obtient les analogues discrets aux identités fonctionnelles classiques des processus Brownien et Poisson dont les structures de Dirichlet s'écrivent comme limites des structures induites par notre formalisme. Des critères de Stein-Malliavin discrets sont établis pour les approximations Normale et Gamma. Le second cadre est celui d'un modèle financier ternaire sous-tendu par un processus géométrique composé à trois points, et équivalent en loi au modèle trinomial. Toute fonctionnelle de ce processus géométrique composé de carré intégrable possède un développement en chaos "modifié" sur lequel agissent des opérateurs d'annihilation/gradient et de création/divergence vérifiant en outre une formule de commutation généralisée. S'ensuit de la formulede Clark "géométrique" qu'il est alors possible d'établir, une formule de hedging pour l'initié dont l'utilité additionnelle espérée s'exprime en termes d'entropie relative, comme dans le cas continu
Malliavin calculus was initially developed to provide an infinite-dimensional variational calculus on the Wiener space and further extended to other spaces. In this work, we develop such one in two discrete frameworks. First, we equip any countable product of probability spaces with a discrete Dirichlet-Malliavin structure, consisting of a family of Malliavin operators (gradient, divergence, number operator), an integration by parts formula, and the induced Dirichlet forms. We get the analogues of the classical functional identities and retrieve the usual Poisson and Brownian Dirichlet structures as limits of our induced structures. We provide discrete Stein-Malliavin criterions for the Normal and the Gamma approximations. Second we study insider's trading in a ternary model, Iying on a three-points compound geometric process. We state a modified chaotic decomposition and define the geometric gradient and divergence operators as the annihilation and creation operators acting on it. We state a geometric Ocone-Karatzas formula. We express the insider's additional expected logarithmic utility in terms of relative entropy as in the continuous case
APA, Harvard, Vancouver, ISO, and other styles
16

Lazag, Pierre. "Déformations de Christoffel et loi des grands nombres pour des processus déterminantaux discrets." Thesis, Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0134.

Full text
Abstract:
Cette thèse est consacrée à l'étude de certaines propriétés d'exemples de classes de processus déterminantaux. Dans une première partie, nous nous intéressons aux processus déterminantaux reliés aux niveaux de Landau supérieurs du laplacien magnétique dans le disque unité. Nous donnons une estimation précise de la variance asymptotique du nombre de points dans un disque dont le rayon tend vers 1 -. Dans une deuxième partie, nous introduisons les déformations de Christoffel d'ensemble polynômiaux orthogonaux discrets, en multipliant la mesure d'orthogonalité sous-jacente par un polynôme positif. Nous montrons que les déformations de Christoffel de l'ensemble de Charlier convergent vers des déformations du processus de Bessel discret ; nous montrons également que les déformations de Christoffel des z-mesures sont des processus déterminantaux dont nous explicitons le noyau ; enfin, nous établissons que les déformations de Christoffel des z-mesures non-dégénérées convergent vers des déformation du processus avec le noyau Gamma. Dans une dernière partie, nous établissons une loi des grands nombre pour les motifs locaux de partitions planes aléatoires, généralisant à deux dimensions un phénomène apparaissant pour les mesures de Schur unidimensionnelles
This thesis studies several aspects of classes of determinantal processes. In a first part, we introduce determinantal processes arising from the higher Landau levels in the unit disk. We give a precise asymptotic for the variance of the number of points inside a disk of which the radius tends to one -. In a second part, we introduce the Christoffel deformations of discrete orthogonal polynomial ensembles, by multiplying the underlying orthogonality measure by a positive polynomial. We prove that the Christoffel deformatons of the Charlier ensemble converge towards deformations of the discrete Bessel process ; we also establish that Christoffel deformations of the z-measures are determinantal point process with an explicit kernel ; we eventually prove that the Christoffel deformations of the non-degenerate z-measures converge to a modification of the process with the Gamma kernel. In the last part, we establish a law of large numbers for local patterns in random plane partitions, generalizing in dimension two a phenomenon that occurs for a class of one dimensional Schur measures
APA, Harvard, Vancouver, ISO, and other styles
17

Morcrette, Basile. "Combinatoire analytique et modèles d'urnes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00843046.

Full text
Abstract:
Cette thèse étudie les urnes de Pólya à travers le prisme de la combinatoire analytique. Les urnes sont des modèles, conceptuellement très simples, de dynamique de croissance ou d'extinction dont les comportements limites sont extrêmement variés. Ces modèles sont largement étudiés par des approches probabilistes mais la compréhension précise des diverses lois limites reste une question ouverte. Les travaux de Flajolet et al. en 2005 ont illustré que pour ces questions, une approche par combinatoire analytique peut se révéler très fructueuse: l'étude des propriétés (nature, singularités) des séries génératrices associées aux urnes donne accès à des lois limites avec grande précision. Cette thèse s'inscrit dans la continuité de ces travaux et commence par identifier les séries des urnes de nature algébrique, grâce à un algorithme sophistiqué issu du calcul formel (Divination/Preuve automatique). Pour les classes d'urnes algébriques, nous menons des analyses, exacte et asymptotique, afin de connaître avec précision les comportements limites (structures des moments, vitesse de convergence, aspects limites locaux). Puis, l'étude d'urnes non algébriques est faite au travers d'exemples concrets portant sur la modélisation de réseaux sociaux, ainsi que sur la combinatoire des formules booléennes. Enfin, à travers des modèles d'urnes plus généraux (absence d'équilibre, présence d'aléa au sein des règles de substitution), nous montrons que l'approche symbolique de la combinatoire analytique est robuste. En particulier, une étude combinatoire générale des urnes sans condition d'équilibre est réalisée pour la première fois, unissant toute urne à une équation aux dérivées partielles.
APA, Harvard, Vancouver, ISO, and other styles
18

De, Tilière Béatrice. "Modèles exactement solubles de mécanique statistique en dimension deux : modèle d'Ising, dimères et arbres couvrants." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00909569.

Full text
Abstract:
Ce mémoire donne un aperçu de mes travaux de recherche depuis la thèse. La thématique générale est la mécanique statistique, qui a pour but de comprendre le comportement macroscopique d'un système physique dont les interactions sont décrites au niveau microscopique. De nombreux modèles appartiennent à la mécanique statistique; nos résultats se concentrent sur le modèle d'Ising, le modèle de dimères et les arbres couvrants en dimension deux. Ces trois modèles ont la particularité d'être exactement solubles, c'est-à-dire qu'il existe une expression exacte et explicite pour la fonction de partition. Ce mémoire décrit et met en perspective les résultats de mes publications, et donne les étapes principales des démonstrations.
APA, Harvard, Vancouver, ISO, and other styles
19

De, Loynes Basile. "Graphes et marches aléatoires." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00726483.

Full text
Abstract:
L'étude des marches aléatoires fait apparaître des connexions entre leurs propriétés algébriques, géométriques ou encore combinatoires et leurs propriétés stochastiques. Si les marches aléatoires sur les groupes - ou sur des espaces homogènes - fournissent beaucoup d'exemples, il serait appréciable d'obtenir de tels résultats de rigidité sur des structures algébriques plus faibles telles celles de semi-groupoide ou de groupoide. Dans cette thèse il est considéré un exemple de semi-groupoide et un exemple de groupoide, tous les deux sont définis a partir de sous-graphes contraints du graphe de Cayley d'un groupe - le premier graphe est dirige alors que le second ne l'est pas. Pour ce premier exemple, on précise un résultat de Campanino et Petritis (ils ont montre que la marche aléatoire simple était transiente pour cet exemple de graphe dirigé) en déterminant la frontière de Martin associée à cette marche et établissant sa trivialité Dans le second exemple apparaissant dans ce manuscrit, on considère des pavages quasi-périodiques de l'espace euclidien obtenus à l'aide de la méthode de coupe et projection. Nous considérons la marche aléatoire simple le long des arêtes des polytopes constituant le pavage, et nous répondons a la question du type de celle-ci, c'est-à-dire nous déterminons si elle est récurrente ou transiente. Nous montrons ce résultat en établissant des inégalités isopérimétriques Cette stratégie permet d'obtenir des estimées de la vitesse de décroissance du noyau de la chaleur, ce que n'aurait pas permis l'utilisation d'un critère de type Nash-Williams.
APA, Harvard, Vancouver, ISO, and other styles
20

Durand, Guillermo. "Tests multiples et bornes post hoc pour des données hétérogènes." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS289/document.

Full text
Abstract:
Ce manuscrit présente mes contributions dans trois domaines des tests multiples où l'hétérogénéité des données peut être exploitée pour mieux détecter le signal tout en contrôlant les faux positifs : pondération des p-valeurs, tests discrets, et inférence post hoc. Premièrement, une nouvelle classe de procédures avec pondération données-dépendante, avec une structure de groupe et des estimateurs de la proportion de vraies nulles, est définie, et contrôle le False Discovery Rate (FDR) asymptotiquement. Cette procédure atteint aussi l'optimalité en puissance sous certaines conditions sur les estimateurs. Deuxièmement, de nouvelles procédures step-up et step-down, adaptées aux tests discrets sous indépendance, sont conçues pour contrôler le FDR pour une distribution arbitraire des marginales des p-valeurs sous l'hypothèse nulle. Finalement, de nouvelles familles de référence pour l'inférence post hoc, adaptées pour le cas où le signal est localisé, sont étudiées, et on calcule les bornes post hoc associées avec un algorithme simple
This manuscript presents my contributions in three areas of multiple testing where data heterogeneity can be exploited to better detect false null hypotheses or improve signal detection while controlling false positives: p-value weighting, discrete tests, and post hoc inference. First, a new class of data-driven weighting procedures, incorporating group structure and true null proportion estimators, is defined, and its False Discovery Rate (FDR) control is proven asymptotically. This procedure also achieves power optimality under some conditions on the proportion estimators. Secondly, new step-up and step-down procedures, tailored for discrete tests under independence, are designed to control the FDR for arbitrary p-value null marginals. Finally, new confidence bounds for post hoc inference (called post hoc bounds), tailored for the case where the signal is localized, are studied, and the associated optimal post hoc bounds are derived with a simple algorithm
APA, Harvard, Vancouver, ISO, and other styles
21

Hachemi, Aïcha. "Analyse Dynamique d'Algorithmes Euclidiens et Théorèmes Limites." Phd thesis, Université Paris-Diderot - Paris VII, 2007. http://tel.archives-ouvertes.fr/tel-00343537.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au comportement asymptotique des distributions de coûts associés à des algorithmes d'Euclide de la classe rapide. Nous commençons dans un premier chapitre par des rappels sur les propriétés dynamiques des systèmes euclidiens et introduisons la propriété de moments forts pour les coûts additifs non-réseau. Nous établissons ensuite la condition de coût fortement diophantien et montrons sa généricité. Dans le deuxième chapitre, nous analysons, en adaptant des techniques de Dolgopyat-Melbourne, des perturbations d'opérateurs de transfert associés à des applications de la bonne classe. Ces résultats sont utilisés dans le troisième chapitre pour obtenir des estimations sur la fonction génératrice des moments où nous montrons sa quasi-décroissance exponentielle.

Le dernier chapitre est consacré aux démonstrations de téorèmes de la limite locale. Le premier théorème est sans vitesse de convergence et concerne tous les coùts non-réseau ayant des moments forts à l'ordre trois. La condition diphantienne nous permet ensuite d'établir un théorème de la limite locale avec contrôle de la vitesse de convergence. Pour des observables suffisament régulières, nous obtenons une vitesse de convergence optimale.
APA, Harvard, Vancouver, ISO, and other styles
22

Lebrun, Régis. "Contributions à la modélisation de la dépendance stochastique." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00913510.

Full text
Abstract:
Dans cette thèse, nous étudions la modélisation de la dépendance stochastique entre composantes d'un vecteur aléatoire sous l'angle des copules. La première partie des travaux consiste en une exploration numérique des notions de copule et de mesure de dépendance stochastique dans le contexte de la modélisation des incertitudes en simulation numérique. La seconde partie des travaux porte sur l'étude des transformations de Nataf et de Rosenblatt. Nous montrons que la transformation de Nataf consiste à supposer que le vecteur aléatoire est muni d'une copule Gaussienne. Nous généralisons cette transformation à une distribution absolument continue à copule elliptique quelconque. Nous montrons également l'équivalence entre les transformations de Nataf et de Rosenblatt dans le cas d'une copule Gaussienne. La troisième partie étudie la notion de dépendance stochastique sous contrainte. Nous caractérisons les lois jointes de statistiques d'ordre continues en termes de lois marginales et de copules, et nous proposons une nouvelle famille de copules adaptée à cette modélisation. Nous caractérisons l'existence et l'unicité d'un élément maximal dans cette famille. La quatrième partie s'intéresse aux lois multivariées discrètes, pour lesquelles la notion de copule n'est plus en bijection avec celle de fonction de répartition jointe. Nous établissons un algorithme innovant pour le calcul de probabilités rectangulaires pour une large classe de tels modèles, surclassant les meilleurs algorithmes disponibles tant en termes de précision numérique que de temps de calcul et d'occupation mémoire.
APA, Harvard, Vancouver, ISO, and other styles
23

Maazoun, Mickaël. "Permutons limites universels de permutations aléatoires à motifs exclus." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN064.

Full text
Abstract:
Les permutations à motifs exclus sont un thème important de la combinatoire énumérative et leur étude probabiliste un sujet récent en pleine expansion, notamment l'étude de la limite d'échelle, au sens des permutons, du diagramme d'une permutation aléatoire uniforme dont la taille tent vers l'infini dans une classe définie par exclusion de motifs. Le cas des permutations séparables a été étudié par Bassino, Bouvel, Féray, Gerin et Pierrot, qui ont démontré la convergence vers un objet aléatoire, permuton séparable Brownien. Nous fournissons une construction explicite à partir de processus stochastiques permettant d'étudier les propriétés fractales et de calculer certaines statistiques de cet objet. Nous étudions la classe d'universalité de ce permuton dans le cadre des classes admettant une spécification finie au sens de la décomposition par substitution. Pour nombre d'entre elles, sous une condition combinatoire simple, leur limite est une déformation à un paramètre du permuton séparable Brownien. Dans le cas des classes closes par substitution, nous considérons également des conditions suffisantes pour sortir de cette classe d'universalité, et introduisons la famille des permutons stables. Les cographes sont les graphes d'inversion des permutations séparables. Nous étudions par des méthodes similaires la convergence au sens des graphons du cographe étiqueté ou non-étiqueté uniforme, et montrons que le degré normalisé d'un sommet uniforme dans un cographe uniforme est asymptotiquement uniforme. Finalement, nous étudions les limites d'échelle et locale de la famille à motifs vinculaires exclus des permutations de Baxter. Cette classest en bijection avec de nombreux objets combinatoires remarquables, notamment les cartes bipolaires orientées. Notre résultat s'interprète en terme de la convergence de telles cartes au sens de la Peanosphere, complétant un résultat de Gwynne, Holden et Sun
Pattern-avoiding permutations are an important theme of enumerative combinatorics, and their study from a probabilistic point of view form a recently expanding subject, for instance by considering the scaling limit behavior, in the permuton sense, of the diagram of a large uniform permutation in a pattern-avoiding class. The case of separable permutations was studied by Bassino, Bouvel, Féray, Gerin and Pierrot, who showed convergence to a random object, the Brownian separable permuton. We provide an explicit construction through stochastic processes, allowing to study the fractal properties, and compute some statistics, of this object. We study the universality class of this permuton among classes admitting a finite specification in the sense of the so-called decomposition substitution. For many of them, under a simple combinatorial condition, their limit is a one-parameter deformation of the Brownian permuton. In the specific instance of substitution-closed classes, we also consider sufficient conditions to escape this universality class, and introduct the family of stable permutons. Cographs are the inversion graphs of separable permutations. Using similar methods, we investigate the scaling limit in the graphon sense of uniform labeled and unlabeled cographs. We also show that the normalized degree of a uniform vertex in a uniform cograph is asymptotically uniform. Finally, we study local and scaling limits of Baxter permutations, a class avoiding vincular patterns. This family is in bijection with many remarkable combinatorial objects, in particular bipolar oriented maps. Our result has interpretations in terms of the Peanosphere convergence of such maps, completing a result of Gwynne, Holden and Sun
APA, Harvard, Vancouver, ISO, and other styles
24

Leconte, Mathieu. "Équilibrage de charge et répartition de ressources dans les grands systèmes distribués." Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00933645.

Full text
Abstract:
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
APA, Harvard, Vancouver, ISO, and other styles
25

Merlet, Glenn. "Produits de matrices aléatoires : exposants de Lyapunov pour des matrices aléatoires suivant une mesure de Gibbs, théorèmes limites pour des produits au sens max-plus." Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00010813.

Full text
Abstract:
On appelle suite récurrente stochastique (SRS) dirigée par une suite de matrices aléatoires une suite de variables aléatoires telles que le terme de rang n+1 est obtenu en multipliant celui de rang n par la enième matrice. Cette thèse porte sur le comportement asymptotique de telles suites. Dans la première partie, les matrices sont inversibles et on donne un critère de séparation des exposants de Lyapunov quand la suite de matrices suit une mesure de Gibbs sur un sous-shift de type fini. Dans la seconde partie, les produits se font au sens max-plus. On montre que le comportement des SRS au premier ordre est essentiellement déterminé par celui de certains blocs diagonaux et que la propriété de perte de mémoire, qui assure la stabilité des SRS, est générique. Si une suite de matrices (ou d'applications topicales) aléatoires est i.i.d. et a la propriété de perte de mémoire, alors les SRS qu'elle dirige vérifient des théorèmes limites. Ce résultat est obtenu par la méthode du trou spectral.
APA, Harvard, Vancouver, ISO, and other styles
26

Marcovici, Irène. "Automates cellulaires probabilistes et mesures spécifiques sur des espaces symboliques." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00933977.

Full text
Abstract:
Un automate cellulaire probabiliste (ACP) est une chaîne de Markov sur un espace symbolique. Le temps est discret, les cellules évoluent de manière synchrone, et le nouvel état de chaque cellule est choisi de manière aléatoire, indépendamment des autres cellules, selon une distribution déterminée par les états d'un nombre fini de cellules situées dans le voisinage. Les ACP sont utilisés en informatique comme modèle de calcul, ainsi qu'en biologie et en physique. Ils interviennent aussi dans différents contextes en probabilités et en combinatoire. Un ACP est ergodique s'il a une unique mesure invariante qui est attractive. Nous prouvons que pour les AC déterministes, l'ergodicité est équivalente à la nilpotence, ce qui fournit une nouvelle preuve de l'indécidabilité de l'ergodicité pour les ACP. Alors que la mesure invariante d'un AC ergodique est triviale, la mesure invariante d'un ACP ergodique peut être très complexe. Nous proposons un algorithme pour échantillonner parfaitement cette mesure. Nous nous intéressons à des familles spécifiques d'ACP, ayant des mesures de Bernoulli ou des mesures markoviennes invariantes, et étudions les propriétés de leurs diagrammes espace-temps. Nous résolvons le problème de classification de la densité sur les grilles de dimension supérieure ou égale à 2 et sur les arbres. Enfin, nous nous intéressons à d'autres types de problèmes. Nous donnons une caractérisation combinatoire des mesures limites pour des marches aléatoires sur des produits libres de groupes. Nous étudions les mesures d'entropie maximale de sous-décalages de type fini sur les réseaux et sur les arbres. Les ACP interviennent à nouveau dans ce dernier travail.
APA, Harvard, Vancouver, ISO, and other styles
27

Cénac, Peggy. "Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingales." Habilitation à diriger des recherches, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00954528.

Full text
Abstract:
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
APA, Harvard, Vancouver, ISO, and other styles
28

Karavelić, Emir. "Stochastic Galerkin finite element method in application to identification problems for failure models parameters in heterogeneous materials." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2501.

Full text
Abstract:
Cette thèse traite de rupture localisée de structures construites en matériau composite hétérogène, comme le béton, à deux échelles différentes. Ces deux échelles sont connectées par le biais de la mise à l'échelle stochastique, où toute information obtenue à l'échelle méso est utilisée comme connaissance préalable à l'échelle macro. À l'échelle méso, le modèle de réseau est utilisé pour représenter la structure multiphasique du béton, à savoir le ciment et les granulats. L'élément de poutre représenté par une poutre Timoshenko 3D intégrée avec de fortes discontinuités assure un maillage complet indépendance de la propagation des fissures. La géométrie de la taille des agrégats est prise en accord avec la courbe EMPA et Fuller tandis que la distribution de Poisson est utilisée pour la distribution spatiale. Les propriétés des matériaux de chaque phase sont obtenues avec une distribution gaussienne qui prend en compte la zone de transition d'interface (ITZ) par l'affaiblissement du béton. À l'échelle macro, un modèle de plasticité multisurface est choisi qui prend en compte à la fois la contribution d'un écrouissage sous contrainte avec une règle d'écoulement non associative ainsi que des composants d'un modèle d'adoucissement de déformation pour un ensemble complet de différents modes de défaillance 3D. Le modèle de plasticité est représenté par le critère de rendement Drucker-Prager, avec une fonction potentielle plastique similaire régissant le comportement de durcissement tandis que le comportement de ramollissement des contraintes est représenté par le critère de St. Venant. La procédure d'identification du modèle macro-échelle est réalisée de manière séquentielle. En raison du fait que tous les ingrédients du modèle à l'échelle macro ont une interprétation physique, nous avons fait l'étalonnage des paramètres du matériau en fonction de l'étape particulière. Cette approche est utilisée pour la réduction du modèle du modèle méso-échelle au modèle macro-échelle où toutes les échelles sont considérées comme incertaines et un calcul de probabilité est effectué. Lorsque nous modélisons un matériau homogène, chaque paramètre inconnu du modèle réduit est modélisé comme une variable aléatoire tandis que pour un matériau hétérogène, ces paramètres de matériau sont décrits comme des champs aléatoires. Afin de faire des discrétisations appropriées, nous choisissons le raffinement du maillage de méthode p sur le domaine de probabilité et la méthode h sur le domaine spatial. Les sorties du modèle avancé sont construites en utilisant la méthode de Galerkin stochastique fournissant des sorties plus rapidement le modèle avancé complet. La procédure probabiliste d'identification est réalisée avec deux méthodes différentes basées sur le théorème de Bayes qui permet d'incorporer de nouvelles bservations générées dans un programme de chargement particulier. La première méthode Markov Chain Monte Carlo (MCMC) est identifiée comme mettant à jour la mesure, tandis que la deuxième méthode Polynomial Chaos Kalman Filter (PceKF) met à jour la fonction mesurable. Les aspects de mise en œuvre des modèles présentés sont donnés en détail ainsi que leur validation à travers les exemples numériques par rapport aux résultats expérimentaux ou par rapport aux références disponibles dans la littérature
This thesis deals with the localized failure for structures built of heterogeneous composite material, such as concrete, at two different scale. These two scale are latter connected through the stochastic upscaling, where any information obtained at meso-scale are used as prior knowledge at macro-scale. At meso scale, lattice model is used to represent the multi-phase structure of concrete, namely cement and aggregates. The beam element represented by 3D Timoshenko beam embedded with strong discontinuities ensures complete mesh independency of crack propagation. Geometry of aggregate size is taken in agreement with EMPA and Fuller curve while Poisson distribution is used for spatial distribution. Material properties of each phase is obtained with Gaussian distribution which takes into account the Interface Transition Zone (ITZ) through the weakening of concrete. At macro scale multisurface plasticity model is chosen that takes into account both the contribution of a strain hardening with non-associative flow rule as well as a strain softening model components for full set of different 3D failure modes. The plasticity model is represented with Drucker-Prager yield criterion, with similar plastic potential function governing hardening behavior while strain softening behavior is represented with St. Venant criterion. The identification procedure for macro-scale model is perfomed in sequential way. Due to the fact that all ingredients of macro-scale model have physical interpretation we made calibration of material parameters relevant to particular stage. This approach is latter used for model reduction from meso-scale model to macro-scale model where all scales are considered as uncertain and probability computation is performed. When we are modeling homogeneous material each unknown parameter of reduced model is modeled as a random variable while for heterogeneous material, these material parameters are described as random fields. In order to make appropriate discretizations we choose p-method mesh refinement over probability domain and h-method over spatial domain. The forward model outputs are constructed by using Stochastic Galerkin method providing outputs more quickly the the full forward model. The probabilistic procedure of identification is performed with two different methods based on Bayes’s theorem that allows incorporating new observation generated in a particular loading program. The first method Markov Chain Monte Carlo (MCMC) is identified as updating the measure, whereas the second method Polynomial Chaos Kalman Filter (PceKF) is updating the measurable function. The implementation aspects of presented models are given in full detail as well as their validation throughthe numerical examples against the experimental results or against the benchmarks available from literature
APA, Harvard, Vancouver, ISO, and other styles
29

Liu, Jinnan. "Non-decomposable discrete graphical models /." 2008. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:NR39029.

Full text
Abstract:
Thesis (Ph.D.)--York University, 2008. Graduate Programme in Mathematics and Statistics.
Typescript. Includes bibliographical references (leaves 81-83). Also available on the Internet. MODE OF ACCESS via web browser by entering the following URL: http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:NR39029
APA, Harvard, Vancouver, ISO, and other styles
30

Wu, Xuan. "Discrete Gibbsian line ensembles and weak noise scaling for directed polymers." Thesis, 2020. https://doi.org/10.7916/d8-6re1-k703.

Full text
Abstract:
In this thesis we investigate three projects within in the field of KPZ universality class and integrable probability. The first project studies the weak KPZ universality for half-space directed polymers in dimension 1+1. This is the half-space analogue of the full-space polymers studied in [AKQ]. The novelty is the extra random environment introduced at the boundary. The new technical challenges are the estimates for half-space heat kernels which are super-probability measures and accurate estimates on visits to origin (weighted by the boundary randomness) for a simple symmetric walk in dimension 1 and 2 respectively. The second project introduces a framework to prove tightness of a sequence of discrete Gibbsian line ensembles $\mathcal{L}^N = \{\mathcal{L}_k^N(u), k \in \mathbb{N}, u \in \frac{1}{N}\mathbb{Z}\}$, which is a countable collection of random curves. The sequence of discrete line ensembles $\mathcal{L}^N$ we consider enjoys a resampling invariance property, which we call $({\ensuremath{\mathbf{H}}}^N,\textup{H}^{\textup{RW},N})$-Gibbs property. We assume that $\mathcal{L}^N$ satisfies technical assumptions A1-A4 on $({\ensuremath{\mathbf{H}}}^N, {\textup{H}^{\textup{RW},N}})$ and the assumption that the lowest labeled curve with a parabolic shift, $\mathcal{L}_1^N(u) + \frac{u^2}{2}$, converges weakly to a stationary process in the topology of uniform convergence on compact sets. Under these assumptions, we prove our main result Theorem 3.1.13 that $\mathcal{L}^N$ is tight as a sequence of line ensembles and that the $\ensuremath{\mathbf{H}}$-Brownian Gibbs property holds for all subsequential limit line ensembles with $\ensuremath{\mathbf{H}}(x)= e^x$. As an application of Theorem 3.1.13, under the weak noise scaling, we show that the scaled log-gamma line ensemble $\overbar{\mathcal{L}}^N$ is tight, which is a sequence of discrete line ensembles associated with the log-gamma polymer model via the geometric RSK correspondence. The $\ensuremath{\mathbf{H}}$-Brownian Gibbs property (with $\ensuremath{\mathbf{H}}(x) = e^x$) of its subsequential limits also follows. The third project proves an analogue of the classical Komlós-Major-Tusnády (KMT) embedding theorem for random walk bridges and it serves as a key technical input for the second project. The random bridges we consider are constructed through random walks with i.i.d jumps that are conditioned on the locations of their endpoints. We prove that such bridges can be strongly coupled to Brownian bridges of appropriate variance when the jumps are either continuous or integer valued under some mild technical assumptions on the jump distributions. Our arguments follow a similar dyadic scheme to KMT's original proof, but they require more refined estimates and stronger assumptions necessitated by the endpoint conditioning. In particular, our result does not follow from the KMT embedding theorem, which we illustrate via a counterexample.
APA, Harvard, Vancouver, ISO, and other styles
31

Chiu, Wen-Mao, and 邱文茂. "Predicting the failure probabilities for corporations listed on the Emerging Stock Market in Taiwan using the discrete-time competing risk hazard model with dynamic frailty factor." Thesis, 2015. http://ndltd.ncl.edu.tw/handle/90066924655064695960.

Full text
Abstract:
碩士
國立東華大學
應用數學系
103
The purpose of this paper is to predict the failure probabilities using the discrete-time competing risk hazard model (DCRHM; Hwang and Chu, 2014) with dynamic frailty (Duffie et al. 2009) for corporations listed on the Emerging Stock Market. The DCRHM with dynamic frailty has considered competing risk (Kalbfleisch and Prentice 1980; Elandt-Johnson and Johnson 1999) which allows the firms exiting Emerging Stock Market for different causes to have different effects on the failure probabilities. The dynamic frailty is a latent dynamic Taiwan macroeconomic factor. In this paper, we collect the quarterly data comprising the predictors suggested by Shumway (2001), Campbell et a1. (2008), and Duan et a1. (2012) during this period from 2005 to 2013 for corporations listed on the Emerging Stock Market in Taiwan. Then, we apply the forward selection method to obtain the important predictors for predicting failure probabilities. The empirical results show that the predictors: volatility, return, dollar volume, and the trend of dollar volume are important for predicting failure probabilities. Using Markov chain Monte Carlo method and Monte Carlo expectation-maximization algorithm (Wei and Tanner, 1990), we can estimate unknown parameters in the DCRHM with dynamic frailty. We use the expanding rolling window approach (Hillegeist et al. 2004) to evaluate the out-of-sample forecasting performance of failure probabilities. Our empirical results show that DCRHM with dynamic frailty has better out-of-sample performance than DCRHM without dynamic frailty, in the sense of yielding larger accuracy ratio. Thus, the dynamic frailty is useful for predicting the failure probabilities of corporations listed on the Emerging Stock Market.
APA, Harvard, Vancouver, ISO, and other styles
32

Brázdová, Martina. "Přístup malých a středních podniků k financím a měnová politika ECB." Master's thesis, 2016. http://www.nusl.cz/ntk/nusl-350563.

Full text
Abstract:
The objective of this thesis is to provide new insights into determinants of firm access to finance, and the role of the European Central Bank's (ECB) monetary policy. Not only do we describe and analyze the determinants of access to finance, but we focus on the theory of financial intermediation, as well. The key part analyses European Commission (EC)/ECB survey data for 16 euro area economies from 11 survey waves in the period from 2009 to 2014. We build our model using traditional firm-level variables such as firm size and age as well as a novel measure of the ECB's monetary policy stance - the shadow rate. We hypothesize that smaller and younger firms with decreased profitability over the past 6 months and increased leverage over the same period are more likely to report problems with access to finance. Our results are intuitively consistent with theoretical expectations and also show that the looser the monetary policy of the ECB is, the lower the composite financing gap indicator. Interestingly, we do not confirm the existence of risk taking channel of the monetary policy. Overall, we make use of the most recent survey data, extend the dataset, and use modified methodology for our estimation.
APA, Harvard, Vancouver, ISO, and other styles
33

Gosselin, Antoine. "Modélisation de la demande résidentielle d'électricité : un modèle discret/continu avec simulateur de probabilité GHK /." 2003. http://proquest.umi.com/pqdweb?did=766705161&sid=15&Fmt=2&clientId=9268&RQT=309&VName=PQD.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography