To see the other types of publications on this topic, follow the link: Distribution de probabilité.

Dissertations / Theses on the topic 'Distribution de probabilité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Distribution de probabilité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Diop, Cheikh Abdoulahat. "La structure multimodale de la distribution de probabilité de la réflectivité radar des précipitations." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/3089/.

Full text
Abstract:
Un ensemble de données radar collectées sur divers sites du réseau américain de radars bande S, Nexrad (Next Generation Weather Radar), est utilisé pour analyser la fonction de distribution de probabilité (fdp) du facteur de réflectivité radar (Z) des précipitations, soit P(Z). Nous avons étudié et comparé divers types de systèmes précipitants : 1) orages grêlifères sur le site continental de Little Rock (Arkansas), 2) convection péninsulaire et côtière à Miami (Floride), 3) convection côtière et transition terre/mer à Brownsville (Texas) , 4) convection maritime tropicale à Hawaii, 5) convection maritime des latitudes moyennes à Eureka (Californie), 6) neige associée aux systèmes frontaux continentaux d'hiver à New York City (New York) et 7) neige à Middleton Island (Alaska), une zone maritime des hautes latitudes. On montre que chaque type de système précipitant a une signature spécifique au niveau de la forme de P(Z). La distribution P(Z) a une forme complexe. Nous montrons qu'il s'agit d'un mélange de plusieurs composantes gaussiennes, chacune étant attribuable à un type de précipitation. Avec l'algorithme EM (Expectation Maximisation) de Dempster et al. 1977, basé sur la méthode du maximum devraisemblance, on décompose la fdp des systèmes précipitants en quatre compo-santes : 1) le nuage et les précipitations de très faible intensité ou drizzle, 2) les précipitations stratiformes, 3) les précipitations convectives et 4) la grêle. Chaque composante est représentée par une gaussienne définie par sa moyenne, sa variance et la proportion de l'aire qu'elle occupe dans le mélange. On a mis en évidence l'absence de composante grêle dans les P(Z) des cas de systèmes convectifs maritimes et côtiers. Les chutes de neige correspondent à des distributions P(Z) plus régulières. La présence de plusieurs composantes dans P(Z) est liée à des différences dans la dynamique et la microphysique propres à chaque composante. Une combinaison linéaire des différentes composantes gaussiennes a permis d'obtenir un très bon ajustement de P(Z). Nous présentons ensuite une application des résultats de la décomposition de P(Z). Nous avons isolé chaque composante, et pour chacune d'elles, la distribution de réflectivité est convertie en une distribution d'intensité de précipitation (R), soit P(R) ayant comme paramètres µR et sR2 qui sont respectivement la moyenne et la variance. On montre, sur le le graphe (µR ,sR2), que chaque composante occupe une région spécifique, suggérant ainsi que les types de précipitation identifiés constituent des populations distinctes. Par exemple, la position des points représentatifs de la neige montre que cette dernière est statistiquement différente de la pluie. Le coefficient de variation de P(R), CVR = sR /µR est constant pour chaque type de précipitation. Ce résultat implique que la connaissance de CVR et la mesure de l'un des paramètres de P(R) permet de déterminer l'autre et de définir la distributionde l'intensité de précipitation pour chaque composante. L'influence des coefficients a et b de la relation Z = aRb sur P(R) a été également discutée
A set of radar data gathered over various sites of the US Nexrad (Next Generation Weather Radar) S band radar network is used to analyse the probability distribution function (pdf) of the radar reflectivity factor (Z) of precipitation, P(Z). Various storm types are studied and a comparison between them is made: 1) hailstorms at the continental site of Little Rock (Arkansas), 2) peninsular and coastal convection at Miami (Florida), 3) coastal convection and land/sea transition at Brownsville (Texas), 4) tropical maritime convection at Hawaii, 5) midlatitude maritime convection at Eureka (California), 6) snowstorms from winter frontal continental systems at New York City (New York), and 7) high latitude maritime snowstorms at Middleton Island (Alaska). Each storm type has a specific P(Z) signature with a complex shape. It is shown that P(Z) is a mixture of Gaussian components, each of them being attribuable to a precipitation type. Using the EM (Expectation Maximisation) algorithm of Dempster et al. 1977, based on the maximum likelihood method, four main components are categorized in hailstorms: 1) cloud and precipitation of very low intensity or drizzle, 2) stratiform precipitation, 3) convective precipitation, and 4) hail. Each component is described by the fraction of area occupied inside P(Z) and by the two Gaussian parameters, mean and variance. The absence of hail component in maritime and coastal storms is highlighted. For snowstorms, P(Z) has a more regular shape. The presence of several components in P(Z) is linked to some differences in the dynamics and microphysics of each precipitation type. The retrieval of the mixed distribution by a linear combination of the Gaussian components gives a very stisfactory P(Z) fitting. An application of the results of the split-up of P(Z) is then presented. Cloud, rain, and hail components have been isolated and each corresponding P(Z) is converted into a probability distribution of rain rate P(R) which parameters are µR and sR2 , respectively mean and variance. It is shown on the graph (µR ,sR2) that each precipitation type occupies a specific area. This suggests that the identified components are distinct. For example, the location of snowstorms representative points indicates that snow is statistically different from rain. The P(R) variation coefficient, CVR = sR/µR is constant for each precipitation type. This result implies that knowing CVR and measuring only one of the P(R) parameters enable to determine the other one and to define the rain rate probability distribution. The influence of the coefficients a and b of the relation Z = aRb on P(R) is also discussed
APA, Harvard, Vancouver, ISO, and other styles
2

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Full text
Abstract:
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
APA, Harvard, Vancouver, ISO, and other styles
3

Nehme, Bilal. "Techniques non-additives d'estimation de la densité de probabilité." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00576957.

Full text
Abstract:
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
APA, Harvard, Vancouver, ISO, and other styles
4

Nouir, Zakaria. "Amélioration de la prédiction d'un simulateur des réseaux mobiles par apprentissage de distributions de probabilité." Paris 6, 2008. http://www.theses.fr/2008PA066081.

Full text
Abstract:
Soumis à une forte concurrence, les opérateurs des réseaux mobiles sont amenés à s'engager sur la qualité de service offerte aux clients, devenue un enjeu majeur dans le choix de l'infrastructure et des services associés. Ces opérateurs ont recours à des simulations durant la phase de déploiement et d'optimisation du réseau. Ces simulations doivent être robustes afin de donner une idée fiable du comportement du réseau. Cette thèse a deux contributions principales. La première contribution propose une méthode de simulation bénéficiant des avantages évitant les inconvénients des approches existantes. La méthode proposée combine l'utilisation des modèles a priori et l'utilisation des informations \emph{a posteriori} afin de garantir une simulation robuste, semi-couplée, et applicable à toutes les configurations. Pour y parvenir, les modèles mathématiques sont utilisés pour calculer, dans une première approximation, des distributions des indicateurs de performance. Les distributions des indicateurs de performances simulées présentent, par rapport à celles mesurées, un biais dû aux différentes simplifications faites dans les modèles a priori. La relation entre les mesures et les simulations est apprise par un système d'apprentissage, de type réseau de neurones, et elle est utilisée pour corriger le biais existant. La seconde contribution de cette thèse est l'utilisation d'une technique de pré-traitement des données, en aval du réseau de neurones, pour remédier aux problèmes de complexité et d'apprentissage rencontrés pendant la phase d'apprentissage: les indicateurs de performances sont corrélés et les distributions utilisées doivent être des distributions muti-dimensionelles conjointes, ce qui augmente le nombre d'entrées/sorties du réseau de neurones. La technique de pré-traitement d'analyse en composantes indépendantes a permis d'utiliser des distributions indépendantes et de réduire la complexité de l'apprentissage. Le principal intérêt de la méthode proposée est la possibilité de généraliser le résultat de l'apprentissage à des nouvelles configurations pour lesquelles l'opérateur ne possède pas des mesures correspondantes. La capacité de généralisation du système d'apprentissage a été testée et une amélioration a été proposée pour garantir une généralisation acceptable. Il s'agit de contrôler la taille de l'espace d'apprentissage pour trouver un compromis entre la minimisation de l'erreur réelle et la minimisation de l'erreur empirique et un arbitrage entre la réduction du biais et la réduction de la variance de l'estimation. Ces compromis sont contrôlés par une classification de l'espace d'apprentissage en sous espaces dans lesquels les performances de généralisation du réseau des neurones sont meilleures.
APA, Harvard, Vancouver, ISO, and other styles
5

Philippe, Anne. "Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo." Rouen, 1997. http://www.theses.fr/1997ROUES005.

Full text
Abstract:
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
APA, Harvard, Vancouver, ISO, and other styles
6

Malki, Noureddine. "Contribution au diagnostic des Systèmes à Evénements Discrets par modèles temporels et distributions de probabilité." Thesis, Reims, 2013. http://www.theses.fr/2013REIMS016/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire de thèse représentent une contribution au problème de diagnostic des Systèmes à Evénements Discrets (SEDs). L'objectif de ce travail est dans un premier temps une proposition d'une démarche de diagnostic en exploitant l'aspect temporel caractérisant l'occurrence des événements. Pour cela, le système est modélisé par des graphes temporels appartenant au formalisme des automates temporisés. L'approche est conçue selon une architecture décentralisée afin d'éviter toute explosion combinatoire dans la construction des modèles. Elle a permis la détection et localisation des défauts abruptes survenant sur les équipements notamment en combinant des conditions d'autorisation d'événements et des fonctions de non-occurrence d'événements.Dans un second temps, les défauts graduels issus du process sont considérés. Pour cela, les contraintes temporelles exprimant les dates d'occurrence des événements dans les Templates et les Chroniques sont modélisées par des distributions de probabilités (DPs). Celles-ci sont utilisées afin de caractériser un fonctionnement normal, dégradé ou défaillant de chaque sous-système avec un certain degré de certitude. Cette identification du fonctionnement est représentée par la valeur d'un indicateur de dégradation
The work presented in this thesis represents a contribution to the problem of diagnosis in discrete event systems (DES). The objective of our work consists in a proposition for a diagnostic approach by exploiting the temporal aspect which characterizing the occurrence of events. For this, the system is modeled by temporal graphs belonging to the timed automata formwork. The approach is designed according to the decentralized architecture to avoid any combinatorial explosion in the construction of the models. It has allowed the detection and isolation of abrupt faults occurring on equipment by combining the enablement conditions of events and the Boolean functions for the non-occurrence of events.Secondly, gradual faults coming from the process its self are considerate. For this, time constraints expressing the dates of occurrence of events in the Templates and Chronicles are modeled by probability distributions (PDs). These are used to characterize normal, degraded or failed functioning of each subsystem with a degree of certainty. Identification of this functioning mode is represented by the value of a degradation indicator
APA, Harvard, Vancouver, ISO, and other styles
7

Baraquin, Isabelle. "Analyse et probabilité sur les groupes quantiques (localement) compacts et les groupes duaux." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD009.

Full text
Abstract:
Dans une première partie, nous introduisons les outils des mathématiques non commutatives que nous utiliserons dans notre étude des groupes quantiques finis et des groupes duaux. En particulier, nous présentons ces "groupes" et certaines de leurs propriétés.La seconde partie est dédiée à l'étude de certains groupes quantiques finis : celui de Kac-Paljutkin et la famille de Sekine. Pour chacun, nous étudions les propriétés (asymptotiques) de l'*-distribution des caractères irréductibles et la convergence de marches aléatoires définies à partir de combinaisons linéaires de caractères irréductibles. Nous commençons par examiner la théorie des représentations et de leurs puissances pour déterminer les caractères irréductibles. Ensuite, nous étudions l'*-distribution des traces de ces puissances, par rapport à l'état de Haar, en regardant les *-moments joints. Dans le cas de la famille de Sekine, nous déterminons la distribution asymptotique (lorsque la dimension de l'algèbre tend vers l'infini), en considérant la convergence des moments. L'étude des marches aléatoires débute en bornant la distance à l'état de Haar. Nous déterminons ensuite le comportement asymptotique et l'état limite s'il existe. Remarquons que les limites possibles sont les états idempotents centraux. Nous étudions aussi le phénomène de seuil dans le cadre des groupes quantiques de Sekine.Dans la troisième partie, nous étudions les groupes duaux au sens de Voiculescu. En particulier, nous nous intéressons aux propriétés asymptotiques de l'*-distribution des traces de certaines matrices, par rapport à la trace de Haar libre sur le groupe dual unitaire. Les matrices considérées sont les puissances de la matrice unitaire engendrant l'algèbre de Brown. Nous procédons en deux étapes : premièrement, nous calculons les *-moments joints, puis nous caractérisons la distribution grâce aux cumulants libres. Nous obtenons que ces traces sont asymptotiquement des variables aléatoires circulaires *-libres. Nous explorons aussi le groupe dual orthogonal, qui a un comportement similaire
In the first part, we introduce the tools of noncommutative mathematics that we will use in our study of finite quantum groups and dual groups. In particular, we present these "groups" and some of their properties.The second part is dedicated to the study of some finite quantum groups: the Kac-Paljutkin one and the family of Sekine. For each of these examples, we study (asymptotic) properties of the *-distribution of irreducible characters and convergence of random walks arising from linear combinations of irreducible characters. We first examine the representation theory to determine irreducible representations and their powers. Then we study the *-distribution of their trace with respect to the Haar state, by looking at the mixed *-moments. For the Sekine family we determine the asymptotic distribution (as the dimension of the algebra goes to infinity), by considering convergence of moments. For study of random walks, we bound the distance to the Haar state and determine the asymptotic behavior, i.e. the limit state if it exists. We note that the possible limits are any central idempotent state. We also look at cut-off phenomenon in the Sekine finite quantum groups.In the third part, we study dual groups in the sense of Voiculescu. In particular, we are interested in asymptotic properties of the *-distribution of traces of some matrices, with respect to the free Haar trace on the unitary dual group. The considered matrices are powers of the unitary matrix generating the Brown algebra. We proceed in two steps, first computing the mixed *-moments, then characterizing the distribution thanks to the free cumulants. We obtain that these traces are asymptotically *-free circular variables. We also explore the orthogonal dual group, which has a similar behavior
APA, Harvard, Vancouver, ISO, and other styles
8

Goffard, Pierre-Olivier. "Approximations polynomiales de densités de probabilité et applications en assurance." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4026/document.

Full text
Abstract:
Cette thèse a pour objet d'étude les méthodes numériques d'approximation de la densité de probabilité associée à des variables aléatoires admettant des distributions composées. Ces variables aléatoires sont couramment utilisées en actuariat pour modéliser le risque supporté par un portefeuille de contrats. En théorie de la ruine, la probabilité de ruine ultime dans le modèle de Poisson composé est égale à la fonction de survie d'une distribution géométrique composée. La méthode numérique proposée consiste en une projection orthogonale de la densité sur une base de polynômes orthogonaux. Ces polynômes sont orthogonaux par rapport à une mesure de probabilité de référence appartenant aux Familles Exponentielles Naturelles Quadratiques. La méthode d'approximation polynomiale est comparée à d'autres méthodes d'approximation de la densité basées sur les moments et la transformée de Laplace de la distribution. L'extension de la méthode en dimension supérieure à $1$ est présentée, ainsi que l'obtention d'un estimateur de la densité à partir de la formule d'approximation. Cette thèse comprend aussi la description d'une méthode d'agrégation adaptée aux portefeuilles de contrats d'assurance vie de type épargne individuelle. La procédure d'agrégation conduit à la construction de model points pour permettre l'évaluation des provisions best estimate dans des temps raisonnables et conformément à la directive européenne Solvabilité II
This PhD thesis studies numerical methods to approximate the probability density function of random variables governed by compound distributions. These random variables are useful in actuarial science to model the risk of a portfolio of contracts. In ruin theory, the probability of ultimate ruin within the compound Poisson ruin model is the survival function of a geometric compound distribution. The proposed method consists in a projection of the probability density function onto an orthogonal polynomial system. These polynomials are orthogonal with respect to a probability measure that belongs to Natural Exponential Families with Quadratic Variance Function. The polynomiam approximation is compared to other numerical methods that recover the probability density function from the knowledge of the moments or the Laplace transform of the distribution. The polynomial method is then extended in a multidimensional setting, along with the probability density estimator derived from the approximation formula. An aggregation procedure adapted to life insurance portfolios is also described. The method aims at building a portfolio of model points in order to compute the best estimate liabilities in a timely manner and in a way that is compliant with the European directive Solvency II
APA, Harvard, Vancouver, ISO, and other styles
9

Et, Tabii Mohamed. "Contributions aux descriptions optimales par modèles statistiques exponentiels." Rouen, 1997. http://www.theses.fr/1997ROUES028.

Full text
Abstract:
Cette thèse est consacrée à l'amélioration de l'approximation d'une loi inconnue, par la méthode de la i-projection sous contraintes. L'amélioration consiste à minimiser une information de Kullback pour obtenir la i-projection. La i-projection est définie à l'aide d'une probabilité de référence et de fonctions qui constituent les contraintes. Le rôle de ces données pour améliorer l'approximation est explicite. Nous développons une méthodologie pour caractériser les contraintes, les meilleures tenant compte des propriétés plausibles de la densité de la loi inconnue. Elle consiste de plus à construire pour la méthode de la i-projection, une probabilité de référence, meilleure que celle de départ. Des applications numériques montrent la pertinence de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
10

Petit, Jean-Claude. "Contribution à l'étude des statistiques non paramétriques : Existence et caractérisation d'évènements libres relativement à une famille de lois de probabilité et applications." Nancy 1, 1988. http://www.theses.fr/1988NAN10054.

Full text
Abstract:
Cette thèse traite de l'existence d'éléments d'une tribu de type dénombrable libres vis-à-vis d'une famille dominée de lois de probabilité de type non paramétrique. Ces éléments sont caractérisés sous l'hypothèse de quasi-complétude de la sous-tribu exhaustive minimale. Dans une deuxième partie, une contribution à la réciproque du théorème de Basu est établie. Enfin, la théorie proposée, fondée sur la théorie des mesures vectorielles, permet une généralisation du lemme de Neymann et Pearson
APA, Harvard, Vancouver, ISO, and other styles
11

Ducasse, Quentin. "Etude de la méthode de substitution à partir de la mesure simultanée des probabilités de fission et d'émission gamma des actinides 236U, 238U, 237Np et 238Np." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0109/document.

Full text
Abstract:
Les sections efficaces induites par neutrons des noyaux de courte durée de vie jouent un rôle important dans des domaines variés parmi la physique fondamentale, l'astrophysique ou l'énergie nucléaire. Malheureusement de nombreuses contraintes liées à la radiotoxicité des cibles rendent la mesure de ces sections efficaces souvent très difficiles. La méthode de substitution est une technique de mesure indirecte de sections efficaces neutroniques de noyaux radioactifs qui à l'avantage de s'affranchir de ces contraintes. Pour la première fois dans ce type d'expérience,les probabilités de fission et d'émission gamma sont mesurées simultanément, pour les actinides236U, 238U, 237Np et 238Np dans le but d'étudier la validité de la méthode. Une des difficultés provient de la soustraction des gammas des fragments de fission et cette mesure constitue en cela un véritable défi. Cette expérience de mesure simultanée a été effectuée au cyclotron d'Oslo.A une énergie d'excitation fixée du noyau formé, les résultats montrent que les probabilités de fission de substitution sont en bon accord avec celles induites par neutron alors que les probabilités d'émission gamma mesurées sont plusieurs fois plus élevées. Ces écarts sont liés à la différence distribution spin peuplée par le noyau entre les deux méthodes. Des calculs de modèles statistiques avec des paramètres standards n'ont pas permis de reproduire cette insensibilité de la probabilité de fission vis à vis du spin du noyau. La reproduction des observations expérimentales devient possible en considérant un moment d'inertie du noyau fissionnant qui augmente plus rapidement avec la déformation du noyau que ne le préconisent les paramètres standards. De nouveaux efforts théoriques sont à fournir pour améliorer la compréhension de nos résultats
Neutron-induced cross sections of short-lived nuclei are important in various fields such as fundamental physics, astrophysics or nuclear energy. However, these cross sections are often extremely difficult to measure due to high radioactivity of the targets involved. The surrogate-reaction method is an indirect way to determine neutron-induced cross sections of short-lived nuclei. In order to study the validity of the method, we have measured for the very first time in a surrogate-reaction experiment simultaneously fission and gamma-decay probabilities for the actinides 236U, 238U, 237Np and 238Np. This is challenging because one has to remove the gamma rays emitted by the fission fragments. The measurement was performed at the Oslocyclotron.Our results show that for a given excitation energy, our gamma-decay probabilities are several times higher than neutron-induced probabilities, which can be attributed to differences in spin distribution between the two types of reactions. On the other hand, our fission probabilities are in good agreement with neutron-induced data. Statistical-model calculations applied with standardparameters cannot reproduce the weak spin sensibility to variations of the angular momentum observed for the fission probabilities. However, it is possible to reproduce the experimental observations by considering a stronger increase of the moment of inertia of the fissionning nucleus with deformation. Further theoretical efforts are needed to improve the understanding of our results
APA, Harvard, Vancouver, ISO, and other styles
12

El, Abdi Fouad. "Méthodes de géométrie différentielle dans les modèles statistiques et applications : modèles exponentiels et modèles normaux multidimensionnels : reconstruction des densités de probabilité et des densités spectrales." Paris 11, 1988. http://www.theses.fr/1988PA112253.

Full text
Abstract:
Le présent travail est une large application des méthodes de géométrie différentielle en statistique Le premier chapitre introduit les structures de géométrie différentielle en statistique essentiellement une structure de variété Riemannienne munie d'une paire de connexions en dualité par rapport à certaines métriques. Ces méthodes ont déjà été utilisées par AMARI CHENTSOV, EFRON, LAURlTZEN Les deux chapitres suivants sont consacrés à l'étude des estimateurs par projection étendue, proposés par Amari et Lauritzen et surtout à l'étude de leurs propriétés asymptotiques qui, dans le cas des familles exponentielles, s'expriment comme des propriétés géométriques. Nous montrons ainsi que l'efficacité au premier ordre équivaut au fait que la géométrie Riemannienne sous-jacente est conformément équivalente à celle de Fisher et que l'efficacité au second ordre se traduit par une propriété analogue sur les connexions sous-Jacentes. Il faut noter que cette classe d'estimateurs comporte à peu près tous les estimateurs usuels maximum de vraisemblance, du minimum de contraste. La dernière partie est une application des résultats précédents : 1-Au modèle normal multidimensionnel, en particulier la régression non-linéaire multidimensionnelle gaussienne : 2-A la projection dans le cadre de variétés Hilbertiennes pour la reconstruction des densités de probabilité et des densités spectraIes. Mots clés: variété différentielle, métrique, connexions, divergences, modèles exponentiels, estimation par projection, inférence statistique, densité spectrales
This work is a wide application of differential geometry methods to statistic. In chapter one we introduce the differential methods used in statistical models, essentially a Riemannian manifold structure with a pair of dual connexions with respect to particular metrics These methods have already been used by AMARI, CHENTSOV, EFRON, LAURITZEN In the two following chapters we study the projection estimators introduced by AMARI and LAURITZEN especially their asymptotic properties which in the case of exponential families have a geomeric expression So we have proved first that the first order efficiency means that the underlying Riemannian geometry is conformably equivalent to the Fisher one and then that the second order efficiency means a similar property for the underlying connexions. Note that almost all the usual estimators maximum of likelihood minimum of contrast belong to this class. The last part of this work is an application of the previous results 1- To multivariate normal model, especially to the non-linear multivariate normal regression 2-To reconstruction by projection of probability densities and spectrale densities in the case of Hilbertian manifolds
APA, Harvard, Vancouver, ISO, and other styles
13

Quiroz, Martínez Benjamín. "Étude de la variabilité temporelle et spatiale des peuplements des annélides polychètes de l'Atlantique nord-est européen, dynamique des peuplements en Manche et patrons de distribution sur le plateau continental." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10106/document.

Full text
Abstract:
Les systèmes environnementaux présentent une grande variabilité spatio-temporelle. En raison des influences extérieures et de la stochasticité introduite par le processus de reproduction, la dynamique des populations est également caractérisée par une grande variabilité. La recherche de lois universelles en écologie implique souvent une distribution de la forme loi de puissance, ces distributions peuvent survenir dans la dynamique des populations ou dans les patrons spatiaux de distribution d'abondance et de richesse spécifique. En prenant les polychètes, groupe colonisant un grand nombre d'habitats des sédiments meubles et durs et considérés comme indicateurs des principales conditions qui contrôlent la structure et le fonctionnement des communautés macrobenthiques, nous essayons d’identifier les changements spatio-temporels de la biodiversité de ce groupe. A partir de séries biologiques à long terme de trois communautés de fonds meubles, nous étudions la dynamique des populations des polychètes, nous caractérisons des événements extrêmes pour des données d’abondance et nous introduisons des méthodes de quantification pour des séries biologiques très intermittentes. Ensuite, nous abordons la distribution spatiale des espèces de polychètes ayant comme objectifs d'identifier les patrons latitudinaux, longitudinaux et bathymétriques du plateau continental de l’Atlantique nord-est européen; et de tester l’existence de patrons généraux, voir même universels, caractérisant la biodiversité (i.e. l'augmentation de la diversité avec l’aire échantillonnée, sa décroissance de l’équateur vers les pôles et l'augmentation de la richesse en espèces avec l’abondance totale d’individus)
One of the key features of environmental field studies is their high variability at many different time and space scales. Because of these external influences and of the stochasticity introduced by the reproduction, population dynamics are also characterised by high variability over time and space. The search for universal scaling laws in ecology often involves considering a form of power-law distribution, power laws can emerge in population dynamics or in patterns of abundance, distribution, and richness. Using the polychaetes, group that colonises a large range of soft and hard marine sediment habitats, from intertidal to hadal zones, and are considered to be good surrogates to identify the main environmental conditions that control the structure and functioning of benthic communities, we try to identify the spatiotemporal changes in biodiversity for this characteristic benthic group. First, we discuss the dynamics of polychaete populations. Based on long-term series of three soft-bottom communities, we study the dynamics of polychaete populations using different statistical techniques; we characterise extreme events in abundance data and we show how to apply some quantification methods to highly erratic and intermittent biological series. Then, we discuss the spatial distribution of polychaete species aiming to: identify latitudinal, longitudinal and bathymetric patterns on the European northeast Atlantic continental shelf; and test the existence of general, perhaps universal, patterns for characterising biodiversity i.e. increasing diversity with sampled area, its decay from the equator to the poles and the increase in richness with the total abundance of individuals
APA, Harvard, Vancouver, ISO, and other styles
14

Bletery, Quentin. "Analyse probabiliste et multi-données de la source de grands séismes." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4092/document.

Full text
Abstract:
Les séismes sont le résultat de glissements rapides le long de failles actives chargées en contraintes par le mouvement des plaques tectoniques. Il est aujourd'hui établi, au moins pour les grands séismes, que la distribution de ce glissement rapide le long des failles pendant les séismes est hétérogène. Imager la complexité de ces distributions de glissement constitue un enjeu majeur de la sismologie en raison des implications potentielles dans la compréhension de la genèse des séismes et la possibilité associée de mieux anticiper le risque sismique et les tsunamis. Pour améliorer l'imagerie de ces distributions de glissement co-sismique, trois axes peuvent être suivis: augmenter les contraintes sur les modèles en incluant plus d'observations dans les inversions, améliorer la modélisation physique du problème direct et progresser dans le formalisme de résolution du problème inverse. Dans ce travail de thèse, nous explorons ces trois axes à travers l'étude de deux séismes majeurs: les séisme de Tohoku-Oki (Mw 9.0) et de Sumatra-Andaman (Mw 9.1-9.3) survenus en 2011 et 2004, respectivement
Earthquakes are the results of rapid slip on active faults loaded in stress by the tectonic plates motion. It is now establish - at least for large earthquakes - that the distribution of this rapid slip along the rupturing faults is heterogeneous. Imaging the complexity of such slip distributions is one the main challenges in seismology because of the potential implications on understanding earthquake genesis and the associated possibility to better anticipate devastating shaking and tsunami. To improve the imaging of such co-seismic slip distributions, three axes may be followed: increase the constraints on the source models by including more observations into the inversions, improve the physical modeling of the forward problem and improve the formalism to solve the inverse problem. In this PhD thesis, we explore these three axes by studying two recent major earthquakes: the Tohoku-Oki (Mw 9.0) and Sumatra-Andaman (Mw 9.1-9.3) earthquakes, which occured in 2011 and 2004 respectively
APA, Harvard, Vancouver, ISO, and other styles
15

Abdellaoui, Taoufiq. "Distances de deux lois dans les espaces de Banach." Rouen, 1994. http://www.theses.fr/1994ROUE5003.

Full text
Abstract:
La distance entre deux lois est étudiée lorsque les probabilités sont définies sur un espace de Banach séparable. Nous montrons que cette distance est atteinte par une fonction, dite associée, lorsque l'une des lois est diffuse l'autre discrète. Une condition nécessaire et suffisante pour reconnaitre le caractère associé est donnée par la cyclique monotonie. De plus un algorithme est donné pour obtenir de manière effective la fonction associée. Lorsque nous sommes dans un Hilbert séparable ces résultats sont étendus en utilisant des techniques de sous-gradients et d'analyse convexe
APA, Harvard, Vancouver, ISO, and other styles
16

Elfadaly, Fadlalla Ghaly Hassan Mohamed. "Elicitation of subjective probability distributions." Thesis, Open University, 2012. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.578703.

Full text
Abstract:
To incorporate expert opinion into a Bayesian analysis, it must be quantified as a prior distribution through an elicitation process that asks the expert meaningful questions whose answers determine this distribution. The aim of this thesis is to fill some gaps in the available techniques for eliciting prior distributions for Generalized Linear Models (GLMs) and multinomial models. A general method for quantifying opinion about GLMs was developed in Garthwaite and Al- Awadhi (2006). They model the relationship between each continuous predictor and the dependant variable as a piecewise-linear function with a regression coefficient at each of its dividing points. How- ever, coefficients were assumed a priori independent if associated with different predictors. We relax this simplifying assumption and propose three new methods for eliciting positive-definite variance- covariance matrices of a multivariate normal prior distribution. In addition, we extend the method of Garthwaite and Dickey (1988) for eliciting an inverse chi-squared conjugate prior for the error variance in normal linear models. We also propose a novel method for eliciting a lognormal prior distribution for the scale parameter of a gamma GLM. For multinomial models, novel methods are proposed that quantify expert opinion about a conjugate Dirichlet distribution and, additionally, about three more general and flexible prior distributions. First, an elicitation method is proposed for the generalized Dirichlet distribution that was introduced by Connor and Mosimann (1969). Second, a method is developed for eliciting the Gaussian copula as a multivariate distribution with marginal beta priors. Third, a further novel method is constructed that quantifies expert opinion about the most flexible alternate prior, the logistic normal distribution (Aitchison, 1986). This third method is extended to the case of multinomial models with explanatory covariates.
APA, Harvard, Vancouver, ISO, and other styles
17

Käärik, Meelis. "Fitting sets to probability distributions /." Tartu, Estonia, 2005. http://dspace.utlib.ee/dspace/bitstream/10062/512/5/kaarik.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Skaff, Stephanie J. C. "Probability distributions over cryptographic protocols." Thesis, Monterey, Calif. : Naval Postgraduate School, 2009. http://edocs.nps.edu/npspubs/scholarly/theses/2009/Jun/09Jun%5FSkaff.pdf.

Full text
Abstract:
Thesis (M.S. in Computer Science)--Naval Postgraduate School, June 2009.
Thesis Advisor(s): Herzog, Jonathan. "June 2009." Description based on title screen as viewed on 14 July 2009. Author(s) subject terms: Automatic protocol generation; protocol analysis; security protocols; cryptographic protocols; key-exchange protocols; authentication protocols; protocol verification. Includes bibliographical references (p. 131-134). Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
19

Hansen, Mary Jo. "Probability of Discrete Failures, Weibull Distribution." DigitalCommons@USU, 1989. https://digitalcommons.usu.edu/etd/7023.

Full text
Abstract:
The intent of this research and these is to describe the development of a series of charts and tables that provide the individual and cumulative probabilities of failure applying to the Weibull statistical distribution. The mathematical relationships are developed and the computer programs are described for deterministic and Monte Carlo models that compute and verify the results. Charts and tables reflecting the probabilities of failure for a selected set of parameters of the Weibull distribution functions are provided.
APA, Harvard, Vancouver, ISO, and other styles
20

Fuhr, Norbert Huether Hubert. "Optimum Probability Estimation from Empirical Distributions." Gerhard-Mercator-Universitaet Duisburg, 2004. http://www.ub.uni-duisburg.de/ETD-db/theses/available/duett-04232004-101837/.

Full text
Abstract:
Probability estimation is important for the application of probabilistic models as well as for any evaluation in IR. We discuss the interdependencies between parameter estimation and certain properties of probabilistic models: dependence assumptions, binary vs. non-binary features, estimation sample selection. Then we define an optimum estimate for binary features which can be applied to various typical estimation problems in IR. A method for computing this estimate using empirical data is described. Some experiments show the applicability of our method, whereas comparable approaches are partially based on false assumptions or yield biased estimates.
APA, Harvard, Vancouver, ISO, and other styles
21

List, Jessica. "Analysis of option implied probability distributions." St. Gallen, 2008. http://www.biblio.unisg.ch/org/biblio/edoc.nsf/wwwDisplayIdentifier/02051878001/$FILE/02051878001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

TABLADA, Claudio Javier. "Generalized probability distributions for lifetime applications." Universidade Federal de Pernambuco, 2017. https://repositorio.ufpe.br/handle/123456789/23660.

Full text
Abstract:
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-02-16T19:58:08Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Tese_cd.pdf: 1772542 bytes, checksum: 9852fe90d8b009ad3e0db02dbf491d37 (MD5)
Made available in DSpace on 2018-02-16T19:58:08Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Tese_cd.pdf: 1772542 bytes, checksum: 9852fe90d8b009ad3e0db02dbf491d37 (MD5) Previous issue date: 2017-01-23
CAPES
A arte da indução paramétrica a uma distribuição-base é um dos métodos mais usados para obter modelos mais versáteis. A principal razão para esta tendência é o fato de que, muitas vezes, modelos clássicos podem não ser suficientemente flexíveis para ajustar certos dados de tempos de vida. Assim, distribuições generalizadas ou estendidas são de grande importância, principalmente por duas razões: para ter maior controle nas caudas e para melhorar a bondade de ajuste da distribuição-base. Nesta tese, propomos duas novas famílias de distribuições, denominadas de famílias do supremo e do ínfimo, as quais acrescentam um parâmetro de forma a uma distribuição-base. Obtemos algumas propriedades e quantidades matemáticas dessas famílias. Além disso, apresentamos cinco modelos particulares pertencentes à família do supremo e outros cinco modelos pertencentes à família do ínfimo. Uma outra contribuição é um modelo de três parâmetros, denominado de distribuição Fréchet modificada, a qual é obtida acrescentando um parâmetro de forma no modelo Fréchet. Usando a função W de Lambert, obtemos várias quantidades e propriedades matemáticas deste modelo. Finalmente, propomos um modelo generalizado de quatro parâmetros, denominado de distribuição beta Marshall-OlkinLomax, obtido considerando a distribuição Lomax como modelo base no gerador beta Marshall-Olkin. Determinamos várias expansões úteis e propriedades matemáticas para este modelo. Em todos os casos, provamos empiricamente a aplicabilidade dos novos modelos a dados reais.
The art of parameter induction to a parent distribution is one of the methods more used for obtain more versatile models. The main reason for this trend is the fact that, many times, classic models often may not be flexible enough to adjust certain lifetime data. So, generalized or extended distributions are of great importance, mainly for two reasons: for controlling the tails and improve the goodness-of-fit of the parent distribution. In this thesis, we propose two new families of distributions, namely thesupremum and infimum families, which induce a shape parameter to a parent distribution. We obtain some properties and mathematical quantities of these families. In addition, we present five particular models belonging to the supremum family and others five models belonging to the infimum family. Other contribution is a three-parameter model called the modified Fréchet distribution, which is obtained by inducing a shape parameter in the Fréchet model. Using the Lambert W function, we obtain several mathematical quantities and properties of this model. Finally, we propose a four-parameter generalized model called the beta Marshall-Olkin Lomax distribution, which is obtained to considering the Lomax distribution as the parent model in the beta Marshall-Olkingerator. We obtain several useful expansions and mathematical properties for this model. In all cases, we prove empirically the applicability of the new models to real data.
APA, Harvard, Vancouver, ISO, and other styles
23

Lindemann, Andreas M. "Probability distribution architectrues for trading financial markets." Thesis, Liverpool John Moores University, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.420036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Bright, Leslie William. "Matrix-analytic methods in applied probability /." Title page, table of contents and abstract only, 1996. http://web4.library.adelaide.edu.au/theses/09PH/09phb855.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Dominicy, Yves. "Quantile-based inference and estimation of heavy-tailed distributions." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209311.

Full text
Abstract:
This thesis is divided in four chapters. The two first chapters introduce a parametric quantile-based estimation method of univariate heavy-tailed distributions and elliptical distributions, respectively. If one is interested in estimating the tail index without imposing a parametric form for the entire distribution function, but only on the tail behaviour, we propose a multivariate Hill estimator for elliptical distributions in chapter three. In the first three chapters we assume an independent and identically distributed setting, and so as a first step to a dependent setting, using quantiles, we prove in the last chapter the asymptotic normality of marginal sample quantiles for stationary processes under the S-mixing condition.

The first chapter introduces a quantile- and simulation-based estimation method, which we call the Method of Simulated Quantiles, or simply MSQ. Since it is based on quantiles, it is a moment-free approach. And since it is based on simulations, we do not need closed form expressions of any function that represents the probability law of the process. Thus, it is useful in case the probability density functions has no closed form or/and moments do not exist. It is based on a vector of functions of quantiles. The principle consists in matching functions of theoretical quantiles, which depend on the parameters of the assumed probability law, with those of empirical quantiles, which depend on the data. Since the theoretical functions of quantiles may not have a closed form expression, we rely on simulations.

The second chapter deals with the estimation of the parameters of elliptical distributions by means of a multivariate extension of MSQ. In this chapter we propose inference for vast dimensional elliptical distributions. Estimation is based on quantiles, which always exist regardless of the thickness of the tails, and testing is based on the geometry of the elliptical family. The multivariate extension of MSQ faces the difficulty of constructing a function of quantiles that is informative about the covariation parameters. We show that the interquartile range of a projection of pairwise random variables onto the 45 degree line is very informative about the covariation.

The third chapter consists in constructing a multivariate tail index estimator. In the univariate case, the most popular estimator for the tail exponent is the Hill estimator introduced by Bruce Hill in 1975. The aim of this chapter is to propose an estimator of the tail index in a multivariate context; more precisely, in the case of regularly varying elliptical distributions. Since, for univariate random variables, our estimator boils down to the Hill estimator, we name it after Bruce Hill. Our estimator is based on the distance between an elliptical probability contour and the exceedance observations.

Finally, the fourth chapter investigates the asymptotic behaviour of the marginal sample quantiles for p-dimensional stationary processes and we obtain the asymptotic normality of the empirical quantile vector. We assume that the processes are S-mixing, a recently introduced and widely applicable notion of dependence. A remarkable property of S-mixing is the fact that it doesn't require any higher order moment assumptions to be verified. Since we are interested in quantiles and processes that are probably heavy-tailed, this is of particular interest.


Doctorat en Sciences économiques et de gestion
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
26

Ruiz, Virginie. "Estimation et prédiction d'un système évoluant de façon non linéaire : filtrage par densités approchées." Rouen, 1993. http://www.theses.fr/1993ROUE5018.

Full text
Abstract:
De nombreuses situations physiques relèvent de modèle d'état, dont l'évolution est aléatoire et non linéaire. La modélisation et le filtrage doivent suivre la dynamique de ces modèles non linéaires, même en cas de ruptures. Les changements de modèles aléatoires doivent être pris en compte. Certaines situations introduisent des lois de probabilité multimodales, qui ne peuvent être traitées par les techniques de filtrage de Kalman-Bucy: les lois gaussiennes sont unimodales. De plus, quelles que soient les hypothèses gaussiennes sur les lois a priori, le caractère gaussien des lois a posteriori, est perdu en raison de l'évolution non linéaire. La methodologie originale du filtrage par densités approchées est présentée. Celle-ci introduit des lois de probabilité a priori, et a posteriori, multimodales. Un principe de maximum d'entropie sous contraintes linéaires, assure la fermeture des équations du filtre et permet l'approximation des lois de probabilité à l'aide de densités exponentielles, dont le logarithme est développé linéairement sur des fonctions à choisir astucieusement. La mise à jour utilise la méthode bayesienne de calcul des lois a posteriori. La méthode appliquée sur un modèle d'état sinusoïdal révèle les transitions entre les deux attracteurs liés au modèle (situation typique des chaos déterministes). L'étude de l'état de modèles non linéaires faisant intervenir des évolutions markoviennes conduit à dépasser la seule étude des moments d'ordre deux pour utiliser les moments d'ordre supérieur
APA, Harvard, Vancouver, ISO, and other styles
27

Pivato, Marcus. "Analytical methods for multivariate stable probability distributions." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/NQ63698.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Wiewiora, Eric Walter. "Modeling probability distributions with predictive state representations." Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2008. http://wwwlib.umi.com/cr/ucsd/fullcit?p3288810.

Full text
Abstract:
Thesis (Ph. D.)--University of California, San Diego, 2008.
Title from first page of PDF file (viewed January 15, 2008). Available via ProQuest Digital Dissertations. Vita. Includes bibliographical references (p. 113-117).
APA, Harvard, Vancouver, ISO, and other styles
29

Giamouridis, Daniel. "Implied probability distributions : estimation, testing and applications." Thesis, City University London, 2001. http://openaccess.city.ac.uk/8388/.

Full text
Abstract:
A relatively large number of authors have proposed alternative techniques for the estimation of implied risk-neutral densities. As a general rule, an assumption for a theoretical equilibrium option pricing model is made and with the use of cross-sections of observed options prices point estimates of the risk-neutral probability densities are obtained. The present study is primarily concerned with the estimation of implied riskneutral densities by means of a semi-parametric Edgeworth Series Expansion probability model as an alternative to the widely criticized log-normal parameterization of the Black, Scholes and Merton model. Despite the relatively early introduction of this type of models in academic literature in the early '80s, it was not until the mid '90s that people started showing interest in their applications. Moreover, no studies by means of the Edgeworth Series Expansion probability model have so far been conducted with American style options. To this end, the present work initially develops the general theoretical framework and the numerical algorithm for the estimation of implied risk-neutral densities of the Edgeworth Series Expansion type from options prices. The technique is applicable to European options written on a generalized asset that pays dividends in continuous time or American futures options. The empirical part of the study considers data for the Oil and the Interest rates markets. The first task in the empirical investigation is to address general concerns with regard to the validity of an implied risk-neutral density estimation technique and its ability to stimulate meaningful discussion. To this end, the consistency of the Edgeworth Series Expansion type implied densities with the data is checked. This consistency is viewed in a broader sense: internal consistency - adequate fit to observed data - and economic rationale of the respective densities. An analysis is, therefore, performed to examine the properties of the implied densities in the presence of large changes in economic conditions. More specifically, the ability of the implied Edgeworth Series Expansion type implied densities to capture speculation over future eventualities and their capacity to immediately reflect changes in the market sentiment are examined. Motivated by existing concerns in the literature that the differences between the estimates from an alternative parameterization and the log-normal Black-Scholes-Merton parameterization may be apparent - better fit to observed data - but not significant.
APA, Harvard, Vancouver, ISO, and other styles
30

Ball, Michael A. "Estimating probability distributions implicit in option prices /." [S.l.] : [s.n.], 2001. http://aleph.unisg.ch/hsgscan/hm00026903.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Bouchacourt, Diane. "Task-oriented learning of structured probability distributions." Thesis, University of Oxford, 2017. https://ora.ox.ac.uk/objects/uuid:0665495b-afbb-483b-8bdf-cbc6ae5baeff.

Full text
Abstract:
Machine learning models automatically learn from historical data to predict unseen events. Such events are often represented as complex multi-dimensional structures. In many cases there is high uncertainty in the prediction process. Research has developed probabilistic models to capture distributions of complex objects, but their learning objective is often agnostic of the evaluation loss. In this thesis, we address the aforementioned defficiency by designing probabilistic methods for structured object prediction that take into account the task at hand. First, we consider that the task at hand is explicitly known, but there is ambiguity in the prediction due to an unobserved (latent) variable. We develop a framework for latent structured output prediction that unifies existing empirical risk minimisation methods. We empirically demonstrate that for large and ambiguous latent spaces, performing prediction by minimising the uncertainty in the latent variable provides more accurate results. Empirical risk minimisation methods predict only a pointwise estimate of the output, however there can be uncertainty on the output value itself. To tackle this deficiency, we introduce a novel type of model to perform probabilistic structured output prediction. Our training objective minimises a dissimilarity coefficient between the data distribution and the model's distribution. This coefficient is defined according to a loss of choice, thereby our objective can be tailored to the task loss. We empirically demonstrate the ability of our model to capture distributions over complex objects. Finally, we tackle a setting where the task loss is implicitly expressed. Specifically, we consider the case of grouped observations. We propose a new model for learning a representation of the data that decomposes according to the semantics behind this grouping, while allowing efficient test-time inference. We experimentally demonstrate that our model learns a disentangled and controllable representation, leverages grouping information when available, and generalises to unseen observations.
APA, Harvard, Vancouver, ISO, and other styles
32

Starvaggi, Patrick William. "Exact Distributions of Sequential Probability Ratio Tests." Kent State University / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=kent1397042380.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Patron, Glenda G. "Joint probability distribution of rainfall intensity and duration." Thesis, This resource online, 1993. http://scholar.lib.vt.edu/theses/available/etd-06232009-063226/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Menendez, San Francisco Marcos. "Nuevas herramientas para el estudio del enlace quimico en el espacio real : orbitales naturales adaptativos y dominios de probabilidad maxima." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066044/document.

Full text
Abstract:
L'étude et analyse dans l'espace réel de la densité électronique en mettant l'accent sur la liaison chimique, se déroule grâce à deux nouveaux techniques: les domaines de probabilité maximale (MPDs) et les orbitales naturelles adaptatives (NAdOs). D'un côté, la méthode MPD permet l'optimisation d'une région de l'espace qui maximise la probabilité de trouver un nombre entier et exact d'électrons. Donc, un domaine de probabilité maximale est la région qui maximise cette probabilité. De cette manière on engendre une division de l'espace en régions avec un sens physique claire. Avec la méthode MPD, une connexion entre la mécanique quantique et la structure de Lewis classique est établie. Ainsi, les domaines obtenus peuvent être associés aux liaisons, paires libres et coeurs. De l'autre côté, les NAdOs récupèrent et généralisent le concept des "domain averaged Fermi holes" (DAFHs), introduit par R. Ponec. Le développement de les orbitales naturelles adaptatives est basé sur des objets largement connues comme matrices densité réduites. L'utilisation conjointe de ces matrices, en particulier leurs parties qui ne peuvent pas être exprimées en termes d'ordre inférieur (densités cumulantes) avec les divisions de l'espace réel, permet de définir une hiérarchie d'indices de liaison chimique entre plusieurs fragments de l'espace. En plus, l'étude de la corrélation électronique à travers de les NAdOs est facilement accessible
The study and analysis of the electronic density in real space, in particular the chemical bond, is carried out through two new techniques: maximum probability domains (MPDs) and natural adaptive orbitals (NAdOs).On one hand, the MPD method allows for an optimization of a spatial region in order to maximize the probability of finding a given and exact number of electrons. Thus, a maximum probability domain is a region of space maximizing such probability. In this way, it is possible to generate a space partitioning in several regions with a clear physical interpretation.With the MPD method, a connection between Quantum Mechanics and the classical Lewis’ picture may be established. MPD regions may be associated to bonds, lone pairs and cores.On the other hand, NAdOs recover and generalize the domain averaged Fermi hole (DAFH) concept,introduced by R. Ponec. The development of natural adaptive orbitals is based on widely known objects, called reduced density matrices. The combination of theses matrices, especially withthose parts that can not be expressed in terms of lower order (cumulant densities) with divisions of the real space, allows to define a hierarchy of chemical bond indices between several fragments of space. In addition, the study of electronic correlation through NAdOs is easily accesible
APA, Harvard, Vancouver, ISO, and other styles
35

Stewart, Michael. "Asymptotic methods for tests of homogeneity for finite mixture models." Connect to full text, 2002. http://hdl.handle.net/2123/855.

Full text
Abstract:
Thesis (Ph. D.)--University of Sydney, 2002.
Title from title screen (viewed Apr. 28, 2008). Submitted in fulfilment of the requirements for the degree of Doctor of Philosophy to the School of Mathematics and Statistics, Faculty of Science. Includes bibliography. Also available in print form.
APA, Harvard, Vancouver, ISO, and other styles
36

Peng, Shen. "Optimisation stochastique avec contraintes en probabilités et applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS153/document.

Full text
Abstract:
L'incertitude est une propriété naturelle des systèmes complexes. Les paramètres de certains modèles peuvent être imprécis; la présence de perturbations aléatoires est une source majeure d'incertitude pouvant avoir un impact important sur les performances du système. Dans cette thèse, nous étudierons les problèmes d’optimisation avec contraintes en probabilités dans les cas suivants : Tout d’abord, nous passons en revue les principaux résultats relatifs aux contraintes en probabilités selon trois perspectives: les problèmes liés à la convexité, les reformulations et les approximations de ces contraintes, et le cas de l’optimisation distributionnellement robuste. Pour les problèmes d’optimisation géométriques, nous étudions les programmes avec contraintes en probabilités jointes. A l’aide d’hypothèses d’indépendance des variables aléatoires elliptiquement distribuées, nous déduisons une reformulation des programmes avec contraintes géométriques rectangulaires jointes. Comme la reformulation n’est pas convexe, nous proposons de nouvelles approximations convexes basées sur la transformation des variables ainsi que des méthodes d’approximation linéaire par morceaux. Nos résultats numériques montrent que nos approximations sont asymptotiquement serrées. Lorsque les distributions de probabilité ne sont pas connues à l’avance, le calcul des bornes peut être très utile. Par conséquent, nous développons quatre bornes supérieures pour les contraintes probabilistes individuelles, et jointes dont les vecteur-lignes de la matrice des contraintes sont indépendantes. Sur la base des inégalités de Chebyshev, Chernoff, Bernstein et de Hoeffding, nous proposons des approximations déterministes. Des conditions suffisantes de convexité. Pour réduire la complexité des calculs, nous reformulons les approximations sous forme de problèmes d'optimisation convexes solvables basés sur des approximations linéaires et tangentielles par morceaux. Enfin, des expériences numériques sont menées afin de montrer la qualité des approximations étudiées sur des données aléatoires. Dans certains systèmes complexes, la distribution des paramètres aléatoires n’est que partiellement connue. Pour traiter les incertitudes dans ces cas, nous proposons un ensemble d'incertitude basé sur des données obtenues à partir de distributions mixtes. L'ensemble d'incertitude est construit dans la perspective d'estimer simultanément des moments d'ordre supérieur. Ensuite, nous proposons une reformulation du problème robuste avec contraintes en probabilités en utilisant des données issues d’échantillonnage. Comme la reformulation n’est pas convexe, nous proposons des approximations convexes serrées basées sur la méthode d’approximation linéaire par morceaux sous certaines conditions. Pour le cas général, nous proposons une approximation DC pour dériver une borne supérieure et une approximation convexe relaxée pour dériver une borne inférieure pour la valeur de la solution optimale du problème initial. Enfin, des expériences numériques sont effectuées pour montrer que les approximations proposées sont efficaces. Nous considérons enfin un jeu stochastique à n joueurs non-coopératif. Lorsque l'ensemble de stratégies de chaque joueur contient un ensemble de contraintes linéaires stochastiques, nous modélisons ces contraintes sous la forme de contraintes en probabilité jointes. Pour chaque joueur, nous formulons les contraintes en probabilité dont les variables aléatoires sont soit normalement distribuées, soit elliptiquement distribuées, soit encore définies dans le cadre de l’optimisation distributionnellement robuste. Sous certaines conditions, nous montrons l’existence d’un équilibre de Nash pour ces jeux stochastiques
Chance constrained optimization is a natural and widely used approaches to provide profitable and reliable decisions under uncertainty. And the topics around the theory and applications of chance constrained problems are interesting and attractive. However, there are still some important issues requiring non-trivial efforts to solve. In view of this, we will systematically investigate chance constrained problems from the following perspectives. As the basis for chance constrained problems, we first review some main research results about chance constraints in three perspectives: convexity of chance constraints, reformulations and approximations for chance constraints and distributionally robust chance constraints. For stochastic geometric programs, we formulate consider a joint rectangular geometric chance constrained program. With elliptically distributed and pairwise independent assumptions for stochastic parameters, we derive a reformulation of the joint rectangular geometric chance constrained programs. As the reformulation is not convex, we propose new convex approximations based on the variable transformation together with piecewise linear approximation methods. Our numerical results show that our approximations are asymptotically tight. When the probability distributions are not known in advance or the reformulation for chance constraints is hard to obtain, bounds on chance constraints can be very useful. Therefore, we develop four upper bounds for individual and joint chance constraints with independent matrix vector rows. Based on the one-side Chebyshev inequality, Chernoff inequality, Bernstein inequality and Hoeffding inequality, we propose deterministic approximations for chance constraints. In addition, various sufficient conditions under which the aforementioned approximations are convex and tractable are derived. To reduce further computational complexity, we reformulate the approximations as tractable convex optimization problems based on piecewise linear and tangent approximations. Finally, based on randomly generated data, numerical experiments are discussed in order to identify the tight deterministic approximations. In some complex systems, the distribution of the random parameters is only known partially. To deal with the complex uncertainties in terms of the distribution and sample data, we propose a data-driven mixture distribution based uncertainty set. The data-driven mixture distribution based uncertainty set is constructed from the perspective of simultaneously estimating higher order moments. Then, with the mixture distribution based uncertainty set, we derive a reformulation of the data-driven robust chance constrained problem. As the reformulation is not a convex program, we propose new and tight convex approximations based on the piecewise linear approximation method under certain conditions. For the general case, we propose a DC approximation to derive an upper bound and a relaxed convex approximation to derive a lower bound for the optimal value of the original problem, respectively. We also establish the theoretical foundation for these approximations. Finally, simulation experiments are carried out to show that the proposed approximations are practical and efficient. We consider a stochastic n-player non-cooperative game. When the strategy set of each player contains a set of stochastic linear constraints, we model the stochastic linear constraints of each player as a joint chance constraint. For each player, we assume that the row vectors of the matrix defining the stochastic constraints are pairwise independent. Then, we formulate the chance constraints with the viewpoints of normal distribution, elliptical distribution and distributionally robustness, respectively. Under certain conditions, we show the existence of a Nash equilibrium for the stochastic game
APA, Harvard, Vancouver, ISO, and other styles
37

Jónsson, Ragner H. "Adaptive subband coding of video using probability distribution models." Diss., Georgia Institute of Technology, 1994. http://hdl.handle.net/1853/14453.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Elamir, Elsayed Ali Habib. "Probability distribution theory, generalisations and applications of L-moments." Thesis, Durham University, 2001. http://etheses.dur.ac.uk/3987/.

Full text
Abstract:
In this thesis, we have studied L-moments and trimmed L-moments (TL-moments) which are both linear functions of order statistics. We have derived expressions for exact variances and covariances of sample L-moments and of sample TL-moments for any sample size n in terms of first and second-order moments of order statistics from small conceptual sample sizes, which do not depend on the actual sample size n. Moreover, we have established a theorem which characterises the normal distribution in terms of these second-order moments and the characterisation suggests a new test of normality. We have also derived a method of estimation based on TL-moments which gives zero weight to extreme observations. TL-moments have certain advantages over L-moments and method of moments. They exist whether or not the mean exists (for example the Cauchy distribution) and they are more robust to the presence of outliers. Also, we have investigated four methods for estimating the parameters of a symmetric lambda distribution: maximum likelihood method in the case of one parameter and L-moments, LQ-moments and TL-moments in the case of three parameters. The L-moments and TL-moments estimators are in closed form and simple to use, while numerical methods are required for the other two methods, maximum likelihood and LQ-moments. Because of the flexibility and the simplicity of the lambda distribution, it is useful in fitting data when, as is often the case, the underlying distribution is unknown. Also, we have studied the symmetric plotting position for quantile plot assuming a symmetric lambda distribution and conclude that the choice of the plotting position parameter depends upon the shape of the distribution. Finally, we propose exponentially weighted moving average (EWMA) control charts to monitor the process mean and dispersion using the sample L-mean and sample L-scale and charts based on trimmed versions of the same statistics. The proposed control charts limits are less influenced by extreme observations than classical EWMA control charts, and lead to tighter limits in the presence of out-of-control observations.
APA, Harvard, Vancouver, ISO, and other styles
39

Słowiński, Witold. "Autonomous learning of domain models from probability distribution clusters." Thesis, University of Aberdeen, 2014. http://digitool.abdn.ac.uk:80/webclient/DeliveryManager?pid=211059.

Full text
Abstract:
Nontrivial domains can be difficult to understand and the task of encoding a model of such a domain can be difficult for a human expert, which is one of the fundamental problems of knowledge acquisition. Model learning provides a way to address this problem by allowing a predictive model of the domain's dynamics to be learnt algorithmically, without human supervision. Such models can provide insight about the domain to a human or aid in automated planning or reinforcement learning. This dissertation addresses the problem of how to learn a model of a continuous, dynamic domain, from sensory observations, through the discretisation of its continuous state space. The learning process is unsupervised in that there are no predefined goals, and it assumes no prior knowledge of the environment. Its outcome is a model consisting of a set of predictive cause-and-effect rules which describe changes in related variables over brief periods of time. We present a novel method for learning such a model, which is centred around the idea of discretising the state space by identifying clusters of uniform density in the probability density function of variables, which correspond to meaningful features of the state space. We show that using this method it is possible to learn models exhibiting predictive power. Secondly, we show that applying this discretisation process to two-dimensional vector variables in addition to scalar variables yields a better model than only applying it to scalar variables and we describe novel algorithms and data structures for discretising one- and two-dimensional spaces from observations. Finally, we demonstrate that this method can be useful for planning or decision making in some domains where the state space exhibits stable regions of high probability and transitional regions of lesser probability. We provide evidence for these claims by evaluating the model learning algorithm in two dynamic, continuous domains involving simulated physics: the OpenArena computer game and a two-dimensional simulation of a bouncing ball falling onto uneven terrain.
APA, Harvard, Vancouver, ISO, and other styles
40

Sundgren, David. "The Apparent Arbitrariness of Second-Order Probability Distributions." Doctoral thesis, Stockholms universitet, Institutionen för data- och systemvetenskap, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-54697.

Full text
Abstract:
Adequate representation of imprecise probabilities is a crucial and non-trivial problem in decision analysis. Second-order probability distributions is the model for imprecise probabilities whose merits are discussed in this thesis. That imprecise probabilities may be represented by second-order probability distributions is well known but there has been little attention to specific distributions. Since different probability distributions have different properties, the study of the desired properties of models of imprecise probabilities with respect to second-order models require analysis of particular second-order distributions. An often held objection to second-order probabilities is the apparent arbitrariness in the choice of distribution. We find some evidence that the structure of second-order distributions is an important factor that prohibits arbitrary choice of distributions. In particular, the properties of two second-order distributions are investigated; the uniform joint distribution and a variant of the Dirichlet distribution that has the property of being the normalised product of its own marginal distributions. The joint uniform distribution is in this thesis shown to have marginal distributions that belie the supposed non-informativeness of a uniform distribution. On the other hand, the modified Dirichlet distribution discovered here has its information content evenly divided among the joint and marginal distributions in that the total correlation of the variables is minimal. It is also argued in the thesis that discrete distributions, as opposed to the continuous distributions mentioned above, would have the advantage of providing a natural setting for updating of lower bounds, and computation of expected utility is made more efficient.
In placitorum scrutatione maxima et mehercle minime levis difficultas eo spectat, quomodo probabilitates dubiae bene ostendantur. In hac thesi de utilitate distributionum probabilitatum secundi ordinis disseremus, in quantum ad probabilitates dubias ostendendas valeant. Omnibus fere notum est probabilitates dubias ostendi posse per distributiones probabilitatum secundi ordinis, sed pauci operam distributionibus singulis operam contulerunt. Cum tamen distributiones probabilitatum valde inter se diversae sint, si quis proprietatibus desideratis probabilitatum dubiarum secundi ordinis studium conferre vult, primum debet quasdam praescriptas distributiones secundi ordinis investigare. Sed fortasse, quod saepenumero fieri solet, quispiam dixerit probabilitates secundi ordinis nulla, ut videtur, ratione habita quasi vagari quoad delectum distributionis. Nos tamen nonnulla indicia comperimus quibus freti confirmare audemus ipsam formam distributionum secundi ordinis multum valere ad praedictum distributionum secundi ordinis delectum rationabiliter peragendum. Imprimis proprietates duarum distributionum secundi ordinis investigabimus, nimirum distributionis uniformis coniunctae et alterius cuiusdam speciei distributionis quae ‘Dirichleti’ vocatur, quae ex ipsius distributionibus marginalibus ad normam correcta oritur. In hac thesi probamus illam coniunctam uniformem distributionem continere distributiones marginales eius modi quae illos refellant qui negant distributionem uniformem quicquam alicuius momenti afferre. Attamen in illa distributione Dirichleti paulo mutata, quam hoc loco patefacimus, omnia aequaliter inter coniunctas et marginales distributiones divisa sunt, in quantum tota ratio quae inter variantia intercessit ad minimum reducitur. Insuper in hac thesi confirmamus distributiones discretas potius quam antedictas distributiones continuas in hoc utiliores esse, quod per eas limites inferiores in melius mutare licet, et beneficia exspectata accuratius computari possunt.
Adekvat representation av osäkra eller imprecisa sannolikheter är ett avgörande och icke-trivialt problem i beslutsanalys. I denna avhandling diskuteras förtjänsterna hos andra ordningens sannolikheter som en modell för imprecisa sannolikeheter. Att imprecisa sannolikheter kan representeras med andra ordningens sannolikheter är välkänt, men hittills har särskilda andra ordningens föredelningar inte ägnats någon större uppmärksamhet. Då olika sannolikhetsfördelningar har olika egenskaper kräver studiet av önskvärda egenskaper hos modeller för imprecisa sannolikheter en granskning av specifika andra ordningens fördelningar. Den godtycklighet som tycks vidhäfta valet av andra ordningens fördelning är en ofta förekommande invändning mot andra ordingens sannolikhetsfördelningar. Vi finner vissa belägg för at strukturen hos andra ordningens fördelningar är en omständighet som hindrar godtyckligt val av fördelningar. I synnerhet undersöks egenskaper hos två andra ordningens fördelningar; den likformiga simultana fördelningen och en variant av Dirichletfördelningen med egenskapen att vara lika med den normaliserade produkten av sina egna marginalfördelningar. Den likformiga simultana fördelningen visas i avhandligen ha marginalfördelningar som motsäger den förmodat icke-informativa strukturen hos en likformig fördelning. Å andra sidan gäller för den modifierade Dirichletfördelningen som upptäckts här att informationsinnehållet är jämnt fördelat mellan den simultana fördelningen och marginalfördelningarna; den totala korrelationen mellan variablerna är minimal. Det hävdas också i avhandlingen att diskreta sannolikhetsfördelningar i motsats till de kontinuerliga fördelningar som nämnts ovan har fördelen att utgöra en naturlig miljö för uppdatering av undre gränser och dessutom tillåta en mer effektiv beräkning av förväntad nytta.
APA, Harvard, Vancouver, ISO, and other styles
41

Merrell, Paul Clark. "Structure from Motion Using Optical Flow Probability Distributions." Diss., CLICK HERE for online access, 2005. http://contentdm.lib.byu.edu/ETD/image/etd764.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Oakley, Steven James. "Orthogonal polynomials in the approximation of probability distributions." Diss., The University of Arizona, 1990. http://hdl.handle.net/10150/185117.

Full text
Abstract:
An approach to the problem of approximating a continuous probability distribution with a series in orthogonal polynomials is presented. The approach is first motivated with a discussion of theoretical distributions which are inherently difficult to evaluate. Additionally, a practical application which involves such a distribution is developed. The three families of orthogonal polynomials that pertain to the methodology--the Hermite, Laguerre, and Jacobi--are then introduced. Important properties and characterizations of these polynomials are given to lay the mathematical framework for the orthogonal polynomial series representation of the probability density function of a continuous random variable. This representation leads to a similar series for the cumulative distribution function, which is of more practical use for computing probabilities associated with the random variable. It is demonstrated that the representations require only the moments and the domain of the random variable to be known. Relationships of the Hermite, Laguerre, and Jacobi series approximations to the normal, gamma, and beta probability distributions, respectively, are also formally established. Examples and applications of the series are given with appropriate analyses to validate the accuracy of the approximation.
APA, Harvard, Vancouver, ISO, and other styles
43

Andrews, Zoe Helen. "Continuous probability distributions in model-based specification languages." Thesis, University of Newcastle Upon Tyne, 2012. http://hdl.handle.net/10443/1696.

Full text
Abstract:
Model-based specification languages provide a means for obtaining assurance of dependability of complex computer-based systems, but provide little support for modelling and analysing fault behaviour, which is inherently probabilistic in nature. In particular, the need for a detailed account of the role of continuous probability has been largely overlooked. This thesis addresses the role of continuous probability in model-based specification languages. A model-based specification language (sGCL) that supports continuous probability distributions is studied. The use of sGCL and how it interacts with engineering practices is also explored. In addition, a re nement ordering for continuous probability distributions is given, and the challenge of combining non-determinism and continuous probability is discussed in depth. The thesis is presented in three parts. The first uses two case studies to explore the use of probability in formal methods. The first case study, on ash memory, is used to present the capabilities of probabilistic formal methods and to determine the kinds of questions that require continuous probability distributions to answer. The second, on an emergency brake system, illustrates the strengths and weaknesses of existing languages and provides a basis for exploring a prototype language that includes continuous probability. The second part of the thesis gives the formal de nition of sGCL's syntax and semantics. The semantics is made up of two parts, the proof theory (transformer semantics) and the underpinning mathematics (relational semantics). The additional language constructs and semantical features required to include non-determinism as well as continuous probability are also discussed. The most challenging aspect lies in proving the consistency of the semantics when non-determinism is also included. The third part uses a nal case study, on an aeroplane pitch monitor, to demonstrate the use of sGCL. The new analysis techniques provided by sGCL, and how they fit in with engineering practices, are explored.
APA, Harvard, Vancouver, ISO, and other styles
44

Pfister, Mark. "Distribution of a Sum of Random Variables when the Sample Size is a Poisson Distribution." Digital Commons @ East Tennessee State University, 2018. https://dc.etsu.edu/etd/3459.

Full text
Abstract:
A probability distribution is a statistical function that describes the probability of possible outcomes in an experiment or occurrence. There are many different probability distributions that give the probability of an event happening, given some sample size n. An important question in statistics is to determine the distribution of the sum of independent random variables when the sample size n is fixed. For example, it is known that the sum of n independent Bernoulli random variables with success probability p is a Binomial distribution with parameters n and p: However, this is not true when the sample size is not fixed but a random variable. The goal of this thesis is to determine the distribution of the sum of independent random variables when the sample size is randomly distributed as a Poisson distribution. We will also discuss the mean and the variance of this unconditional distribution.
APA, Harvard, Vancouver, ISO, and other styles
45

Korkikian, Roman. "Side-channel and fault analysis in the presence of countermeasures : tools, theory, and practice." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE052/document.

Full text
Abstract:
Dans cette thèse nous développons et améliorons des attaques de systèmes cryptographiques. Un nouvel algorithme de décomposition de signal appelé transformation de Hilbert-Huang a été adapté pour améliorer l’efficacité des attaques parcanaux auxiliaires. Cette technique permet de contrecarrer certaines contre-mesures telles que la permutation d’opérations ou l’ajout de bruit à la consommation de courant. La seconde contribution de ce travail est l’application de certaines distributions statistiques de poids de Hamming à l’attaque d’algorithmes de chiffrement par bloc tels que AES, DES ou LED. Ces distributions sont distinctes pour chaque valeur de sous-clef permettent donc de les utiliser comme modèles intrinsèques. Les poids de Hamming peuvent être découverts par des analyses de canaux auxiliaires sans que les clairs ni les chiffrés ne soient accessibles. Cette thèse montre que certaines contremesures peuvent parfois faciliter des attaques. Les contre-mesures contagieuses proposées pour RSA protègent contre les attaques par faute mais ce faisant et moyennant des calculs additionnels facilitent la découverte de la clef. Finalement, des contre-mesures à faible complexité calculatoire sont proposées. Elles sont basées sur le masquage antagoniste, c’est-à-dire, l’exécution d’une opération d’équilibrage sur des données sensibles pour masquer la consommation de courant
The goal of the thesis is to develop and improve methods for defeating protected cryptosystems. A new signal decompositionalgorithm, called Hilbert Huang Transform, was adapted to increase the efficiency of side-channel attacks. This technique attempts to overcome hiding countermeasures, such as operation shuffling or the adding of noise to the power consumption. The second contribution of this work is the application of specific Hamming weight distributions of block cipher algorithms, including AES, DES, and LED. These distributions are distinct for each subkey value, thus they serve as intrinsic templates. Hamming weight data can be revealed by side-channel and fault attacks without plaintext and ciphertext. Therefore these distributions can be applied against implementations where plaintext and ciphertext are inaccessible. This thesis shows that some countermeasures serve for attacks. Certain infective RSA countermeasures should protect against single fault injection. However, additional computations facilitate key discovery. Finally, several lightweight countermeasures are proposed. The proposed countermeasures are based on the antagonist masking, which is an operation occurring when targeting data processing, to intelligently mask the overall power consumption
APA, Harvard, Vancouver, ISO, and other styles
46

Ackerley, Elizabeth. "Statistical modelling of continuous distributions with a finite probability of zeros." Thesis, Lancaster University, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.289034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Li, Ling. "Sequential Design of Experiments to Estimate a Probability of Failure." Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00765457.

Full text
Abstract:
This thesis deals with the problem of estimating the probability of failure of a system from computer simulations. When only an expensive-to-simulate model of the system is available, the budget for simulations is usually severely limited, which is incompatible with the use of classical Monte Carlo methods. In fact, estimating a small probability of failure with very few simulations, as required in some complex industrial problems, is a particularly difficult topic. A classical approach consists in replacing the expensive-to-simulate model with a surrogate model that will use little computer resources. Using such a surrogate model, two operations can be achieved. The first operation consists in choosing a number, as small as possible, of simulations to learn the regions in the parameter space of the system that will lead to a failure of the system. The second operation is about constructing good estimators of the probability of failure. The contributions in this thesis consist of two parts. First, we derive SUR (stepwise uncertainty reduction) strategies from a Bayesian-theoretic formulation of the problem of estimating a probability of failure. Second, we propose a new algorithm, called Bayesian Subset Simulation, that takes the best from the Subset Simulation algorithm and from sequential Bayesian methods based on Gaussian process modeling. The new strategies are supported by numerical results from several benchmark examples in reliability analysis. The methods proposed show good performances compared to methods of the literature.
APA, Harvard, Vancouver, ISO, and other styles
48

Dackner, Gustav, and Linus Falk. "Measuring the Risk-neutral Probability Distribution of Equity Index Options." Thesis, Linköpings universitet, Produktionsekonomi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-158694.

Full text
Abstract:
The focus of this master thesis is to develop a model that measures the risk-neutral probability distributionof the future value of a portfolio consisting of options on the S&P 500 index. The cornerstone of the model is an explicit and thorough construction of the local volatility surface. The parametric model of Coleman etal. (1998), with some modifications, is used, representing the local volatility surface through a bicubic spline. The local volatility surface is optimized to be consistent with market data on option prices, futures contracts and Overnight Index Swap (OIS) interest rates. Repricing of options is done through a finite difference method (FDM) approach presented by Andersen and Brotherton-Ratcliffe (1998), using the Crank-Nicholson scheme. An interior point solver is used to minimize the squared pricing error weighted by liquidity in each option. Fast and accurate gradients of the objective function are obtained using the Automatic Differentiation library Autograd.The local volatility surface is constructed for multiple dates and the systematic changes are analyzed through Principal Component Analysis (PCA) of the logarithmic local variance. A stochastic process is assigned to the local volatility surface using the sensitivities towards systematic changes identified through the PCA. Using a Gaussian Kernel Density Estimator, the probability density function (PDF) of the future value of the portfolio is measured. The method requires simulated portfolio values, which are achieved through FDM pricing using simulations of the local volatility surface and the underlying index. The cumulative distribution function (CDF) is finally computed by integration of the PDF. To evaluate the measured probability distribution, a normal CDF inversion of 106 measured out-of-sample CDF values are compared to theoretical normal distribution quantiles with Q-Q plots. The constructed local volatility surface is consistent with market prices to an extent where it is more accurate for more liquid options. It is in most cases realistic with respect to smoothness, but have an unexpectedly large offset from the at-the-money strike level in the skew structure. It is unstable from date to date and also significantly dependent on choice of parameters, limited by computational power, and input data. The unstable construction of the local volatility surface results in measurement noise that cause negative auto correlation in the principal components, which impairs their explanatory ability. The main result show that the shape of the probability distribution is measured accurately, but the standard deviation (or volatility) is overestimated.
APA, Harvard, Vancouver, ISO, and other styles
49

Alm, Micael. "Probability Modelling of Alpine Permafrost Distribution in Tarfala Valley, Sweden." Thesis, Uppsala universitet, Luft-, vatten och landskapslära, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-323971.

Full text
Abstract:
Datainsamling har genomförts i Tarfaladalen under 5 dagar vid månadsskiftet mellan mars och april 2017. Insamlingen resulterade i 36 BTS-mätningar (Bottom Temperature of Snow cover) som därefter har använts tillsammans med data från tidigare insamlingar, till att skapa en sammanställd modell över förekomsten av permafrost omkring Tarfala. En statistisk undersökning syftade till att identifiera meningsfulla parametrar som permafrost beror av, genom att testa de oberoende variablerna mot BTS i en stegvis regression. De oberoende faktorerna höjd över havet, aspekt, solinstrålning, vinkel och gradient hos sluttningar producerades för varje undersökt BTS-punkt i ett geografiskt informationssystem.                 Den stegvisa regressionen valde enbart höjden som signifikant variabel, höjden användes i en logistisk regression för att modellera permafrostens utbredning. Den slutliga modellen visade att permafrostens sannolikhet ökar med höjden. För att skilja mellan kontinuerlig, diskontinuerlig och sporadisk permafrost delades modellen in i tre zoner med olika sannolikhetsspann. Den kontinuerliga permafrosten är högst belägen och därav den zon där sannolikheten för permafrost är störst, denna zon gränsar till den diskontinuerliga permafrosten vid en höjd på 1523 m. Den diskontinuerliga permafrosten har en sannolikhet mellan 50–80 % och dess undre gräns på 1108 m.ö.h. separerar den diskontinuerliga zonen från den sporadiska permafrosten
A field data collection has been carried out in Tarfala valley at the turn of March to April 2017. The collection resulted in 36 BTS-measurements (Bottom Temperature of Snow cover) that has been used in combination with data from earlier surveys, to create a model of the occurrence of permafrost around Tarfala. To identify meaningful parameters that permafrost relies on, independent variables were tested against BTS in a stepwise regression. The independent variables elevation, aspect, solar radiation, slope angle and curvature were produced for each investigated BTS-point in a geographic information system.                 The stepwise regression selected elevation as the only significant variable, elevation was applied to a logistic regression to model the permafrost occurrence. The final model showed that the probability of permafrost increases with height. To distinguish between continuous, discontinuous and sporadic permafrost, the model was divided into three zones with intervals of probability. The continuous permafrost is the highest located zone and therefore has the highest likelihood, this zone delimits the discontinuous permafrost at 1523 m a.s.l. The discontinuous permafrost has probabilities between 50-80 % and its lower limit at 1108 m a.s.l. separates the discontinuous zone from the sporadic permafrost.
APA, Harvard, Vancouver, ISO, and other styles
50

Luh, Kyle. "Martingale Couplings and Bounds on Tails of Probability Distributions." Scholarship @ Claremont, 2011. http://scholarship.claremont.edu/hmc_theses/7.

Full text
Abstract:
Wassily Hoeffding, in his 1963 paper, introduces a procedure to derive inequalities between distributions. This method relies on finding a martingale coupling between the two random variables. I have developed a construction that establishes such couplings in various urn models. I use this construction to prove the inequality between the hypergeometric and binomial random variables that appears in Hoeffding's paper. I have then used and extended my urn construction to create new inequalities.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography