To see the other types of publications on this topic, follow the link: Calcul probabilité.

Dissertations / Theses on the topic 'Calcul probabilité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcul probabilité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bardet, Ivan. "Émergence de dynamiques classiques en probabilité quantique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1071/document.

Full text
Abstract:
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence
This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
APA, Harvard, Vancouver, ISO, and other styles
2

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Full text
Abstract:
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
APA, Harvard, Vancouver, ISO, and other styles
3

Faix, Marvin. "Conception de machines probabilistes dédiées aux inférences bayésiennes." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM079/document.

Full text
Abstract:
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence
The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem
APA, Harvard, Vancouver, ISO, and other styles
4

Cauvin, Maxime. "Prise en compte des incertitudes et calcul de probabilité dans les études de risques liés au sol et au sous-sol." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL108N/document.

Full text
Abstract:
L’analyse des risques liés aux objets rocheux (effondrement ou affaissement de terrain, écroulement de falaise, etc.) s’effectue généralement dans un contexte lourd en incertitudes. Malheureusement, les outils dont dispose aujourd’hui l’expert pour réaliser ses études souffrent de ne pouvoir apporter de solutions suffisamment précises pour réellement saisir ce contexte d’incertitude. Ce mémoire effectue d’abord un retour sur la notion d’incertitude dans les études de risques liés au sol et au sous-sol. Une définition et une typologie détaillée en sont proposées et des outils, issus de la littérature ou développés dans le cadre de la thèse, sont fournis pour permettre un traitement pratique de chacune des classes introduites. L’utilisation des probabilités comme outil d’aide à la prise en compte des incertitudes est ensuite examinée. Une discussion, confrontant les approches fréquentiste et épistémique, est proposée pour évaluer la possibilité et les limites d’une interprétation opérationnelle de résultats probabilistes dans une analyse de risque. Ce travail est principalement destiné à l’expert du terrain réalisant une étude de risque. Ainsi, plusieurs exemples réels (analyse de la stabilité d’une mine de charbon, étude de l’aléa fontis au droit d’une carrière souterraine de gypse, réalisation d’un Plan de Prévention des Risques Miniers) sont proposés pour éclairer les propos, illustrer l’adaptabilité des outils introduits aux méthodologies actuelles, et présenter les avantages concrets que le traitement des incertitudes et le calcul probabiliste peuvent apporter en terme d’aide à la démarche d’expertise et à la communication entre les acteurs de la gestion du risque
Analyses of risks related to ground and underground issues (surface collapses, subsidence, rockfalls, etc.) are generally undertaken in a strong context of uncertainty. However, tools that are available for geotechnical expert to carry out his study suffer today from not being able to really seize this context of uncertainty. This work takes firstly stock of the notion of uncertainty in risk analyses. It provides a definition and a typology of uncertainty that can be concretely used by the expert. For each of the defined classes, methods allowing an operational treatment of uncertainties are presented, either extracted from a literature survey or developed in the framework of the Thesis. The use of probabilities as an expertise-help tool is secondly examined. A discussion, which distinguishes between frequentist and epistemic interpretations of probabilities, is proposed to evaluate the benefits and implications that probabilities can have towards the practical elaboration of a risk analysis. This study is mainly dedicated to the field expert in charge of the analysis. Numerous concrete examples (analysis of surface stability above an underground coal mine, sinkhole development analysis over an underground gypsum mine, elaboration of a Mining Risk Prevention Plan) are therefore provided both to present the main results of the work and to illustrate the adaptability of the tools being introduced to the current methodologies of analysis. They also aim at highlighting the fact that the treatment of uncertainties and the use of probabilities in risk analyses can facilitate the process of expertise and allow a better communication between the various actors of risk management
APA, Harvard, Vancouver, ISO, and other styles
5

Osseiran, Ahmad-Chawki. "Contribution à la théorie des probabilités symboliques." Paris 6, 1996. http://www.theses.fr/1996PA066650.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du traitement qualitatif de l'incertain. Pour parvenir à nos fins, nous nous sommes basés sur la théorie des multi-ensembles et la logique multivalente qui offrent un substrat à l'élaboration de la représentation symbolique de l'incertitude à l'aide échelle symbolique finie de degrés de certitude. Dans ce domaine, nous avons proposé un véritable calcul symbolique dans le cadre de la logique multivalente, des opérations usuelles d'addition, de soustraction, de multiplication et de division dans l'intervalle réel 0, 1. Les résultats obtenus nous ont permis l'extension de la théorie des probabilités symboliques en les appliquant aux probabilités conditionnelles, aux probabilités indépendantes et au théorème de Bayes. D'où l'aboutissement à une version purement symbolique du réseau bayésien se basant sur les opérations symboliques et les probabilités conditionnelles symboliques. Enfin, nous avons élaboré un algorithme général bayésien pour les arborescences et un logiciel d'application (SYBANES) illustrant la pertinence des outils proposés. A ce stade, il est donc possible de dire qu'à travers notre travail, nous avons pu contribuer d'une façon efficace à l'évolution de la théorie des probabilités symboliques.
APA, Harvard, Vancouver, ISO, and other styles
6

Arroyo-Contreras, Moisés. "Approche probabiliste du comportement élasto-plastique de structures marines, sous sollicitations aléatoires de houle." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00523059.

Full text
Abstract:
Ce travail porte sur l'analyse de la fiabilité de structures marines de type Jacket, de comportement élastique-parfaitement plastique, vis-à-vis de chargement de houle linéaire stochastique. Les fonctions d'état de sécurité ou de ruine du système mécanique, calculées à l'aide d'une méthode d'analyse de contraintes pas-à-pas, prennent en compte les efforts combinés de flexion et de traction-compression par le flambement (écoulement bi-dimensionnel), dans les éléments de la structure. Les incertitudes des résistances des éléments de la structure sont prises en compte par des lois normales ou log-normales, définies à partir de données statistiques, rapportées par le comité LRFD (sur des facteurs de résistance et de chargement), de la Société Américaine de Génie civil. L'incertitude du chargement de houle est prise en compte par un modèle de houle linéaire stochastique, gaussien stationnaire ergodique. L'approche de la probabilité de ruine globale du système mécanique se fait par deux méthodes: la méthode dite de Premier Ordre, basée sur l'approximation des hyperplans équivalents des intersections ou des unions des régions de ruine du système, et la méthode dite hybride, basée sur la simulation Monte-Carlo. Enfin, deux exemples d'application d'un portique et d'une structure marine installée en eau moyennement profonde, mettent en évidence les avantages de l'utilisation du modèle d'efforts combinés de flexion et de traction-compression, y compris le flambement, proposé dans ce travail. Les modèles proposés dans ce travail, d'application aux structures marines, mais de portée beaucoup plus grande, permettent d'étudier la variation de la probabilité de ruine globale d'un système mécanique, en fonction des critères adoptés dans sa conception. Ils permettent également d'établir des critères pour définir les niveaux de sécurité désirables.
APA, Harvard, Vancouver, ISO, and other styles
7

Ben, Ghorbal Anis. "Fondements algébriques des probabilités quantiques et calcul stochastique sur l'espace de Fock booléen." Nancy 1, 2001. http://www.theses.fr/2001NAN10009.

Full text
Abstract:
Ce mémoire est divisé en trois grandes parties. La première est consacrée essentiellement à l'étude des produits en probabilités quantiques. Nous donnons une classification complète à l'aide du produit universel défini par un ensemble d'axiomes canoniques dans les différentes catégories d'algèbres associatives. Ceci nous permet aussi de définir la notion d'indépendance stochastique non-commutative. En particulier nous démontrons que les seuls produits sont les produits tensoriel (classique), libre et booléen. La seconde partie est motivée directement par la première. Elle est consacrée à l'étude des processus de Lévy sur les groupes duaux de D. Voiculescu. Ce nouveau concept généralise la théorie des processus de Lévy sur les algèbres de Hopf (groupes quantiques) où la seule notion d'indépendance est donnée par le produit tensoriel. Ce principe nous fournit l'outil principal pour montrer qu'un processus de Lévy sur un groupe dual est déterminé par son générateur. Comme application directe, nous donnons une réalisation des processus de Lévy additifs sur les trois espaces de Fock (bosonique, libre et booléen). La troisième partie est consacrée au développement du calcul stochastique quantique sur l'espace de Fock booléen. En particulier nous introduisons l'intégrale stochastique et nous donnons une formule d'Itô quantique. Nous construisons aussi les solutions de l'équation différentielle stochastique quantique au sens de R. L. Hudson et K. R. Parthasarathy. Finalement nous construisons les dilatations des semi-groupes complètement positifs.
APA, Harvard, Vancouver, ISO, and other styles
8

Averous, Jean, and Michel Meste. "Famille de boules centrales d'une probabilité sur un espace de Banach. Application aux ordres et mesures de dissymétrie et de kurtosis." Toulouse 3, 1992. http://www.theses.fr/1992TOU30017.

Full text
Abstract:
Pour une probabilite sur un espace de banach, les auteurs introduisent une famille de boules centrales, indicee par leur rayon; ce sont les boules fermees dont le centre minimise un critere qui, si le rayon est nul, est celui qui sert a definir la mediane spatiale. Les proprietes de cette mediane ont ete etudiees par kemperman en 1987. Il est montre que ces proprietes, en particulier celles de robustesse et de convergence, sont conservees par les boules centrales. Les proprietes plus specifiques des fonctions de centrage et de dispersion qui associent au rayon d'une boule centrale respectivement le centre et la probabilite de cette boule, sont detaillees. Ces proprietes sont utilisees pour definir, d'une part une dissymetrie par rapport a la mediane dans la direction d'un cone convexe ainsi qu'un ordre et des mesures pour ce concept, d'autre part une fonction de kurtosis sur laquelle les auteurs fondent un ordre ne necessitant pas la symetrie centrale des lois. Des exemples de ces fonctions sont donnes pour des lois usuelles. Centre, dispersion, dissymetrie et kurtosis sont ainsi analyses de facon coherente avec la norme. Dans le cas particulier de lois reelles ils generalisent les m-parametres de centrage par des intervalles centraux optimaux, et definissent pour la s-moyenne un poids des queues coherent avec ce centre. Ce dernier concept leur sert a definir, pour toute loi de s-moyenne finie, une fonction de repartition de loi continue unimodale dont l'analyse exploratoire par des methodes fondees sur les quantiles fournit une description de la loi initiale au sens s-moyenne. Ce concept leur sert egalement a unifier la classification des familles nonparametriques de lois de duree de vie et a preciser leur structure hierarchique
APA, Harvard, Vancouver, ISO, and other styles
9

Baili, Hana. "Caractérisation statistique de mesures dynamiques continues à partir d'un modèle de connaissance." Paris 11, 2002. http://www.theses.fr/2002PA112077.

Full text
Abstract:
Mon sujet de recherche est un problème de mesure indirecte: une grandeur d'intérêt à observer mais ne pouvant l'être directement par certains capteurs. On convient d'appeler cette grandeur mesure. Le terme dynamique sous-entend l'évolution de la mesure dans le temps, d'une part, et d'autre part signifie que le modèle comporte au moins une relation dynamique. Le modèle est dit de connaissance dans le sens où tout ce que l'on manipule a une signification physique. Les quantités du modèle, qui une fois fixées, déterminent de façon unique les autres, sont dites: les données du modèle. Malheureusement, souvent certaines données sont inconnues car aléatoires, ou déterministes mais le modèle est incomplet. Dans ce cas, l'information que l'on peut former à propos d'une inconnue est soit ses deux premiers moments si elle est aléatoire, soit un encadrement de sa valeur si elle est déterministe. Notre but est alors de propager cette information à la mesure. L'approche que nous avons adoptée pour ce faire est probabiliste; c'est la "caractérisation statistique" du titre. En effet, un premier prérequis consiste à transformer le modèle de départ en une équation différentielle stochastique (e. D. S. ) telle que: estimer la densité de probabilité du processus qu'elle détermine accomplisse l'ultime mesure. Le chapitre 2 donne la théorie, base de la modélisation; il s'agit du calcul stochastique selon McShane. Le chapitre 3 décrit notre approche de modélisation, en général, puis à la lumière d'une collection d'applications. Nous avons distribué nos méthodes de caractérisaion statistique sur trois chapitres différents (4, 5 et 6) pour mettre l'accent sur les caractères qui les unient et ceux qui les distinguent les unes des autres
In this thesis, we deal with statistical characterization of dynamical continuous measurements within a knowledge-based model. A measurement is any quantity to be observed within a system; we talk about indirect measurement when this quantity cannot be directly given by some sensors. The term dynamic refers to the evolution of the measurement in time. The model is said knowledge-based because it comes from the mathematical traduction of the system physics, as opposed to black-box models. The quantities that when fixed, cause the others to be determined uniquely, are called model's data, such as initial conditions, observations, controls, etc. Often, some of them are unknown because they are random or deterministic but the model comes from an incomplete description of the system. A prior information about some uncertainty can be acquired; it will consist of its average and dispersion, if it is random, or of some set that specifies its values, if it is deterministic. Given the model described below, what's about the measurement? We propose here a probabilistic approach to characterize the measurement; in fact the modelling step, involved at the beginning, consists in transforming the model into a stochastic differential equation (sde) determining a process such that estimating the probability density function (pdf) of this process achieves the ultimate measurement; this is the "statistical characterization". Chapter 3 describes the modelization task in general, using McShane's stochastic calculus as theoretical basis. Chapters 4, 5, and 6 present our methods for estimating the pdf of the (extended) measurement
APA, Harvard, Vancouver, ISO, and other styles
10

Jiang, Li. "Calcul en fatigue des ouvrages métalliques par la mécanique de la rupture (approche probabiliste)." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://pastel.archives-ouvertes.fr/pastel-00569145.

Full text
Abstract:
Cette thèse est une contribution à l'analyse probabiliste des ponts métalliques ou mixtes en fatigue. Dans cette thèse, nous proposons des méthodes originales, pour calculer l'indice de fiabilité ß et évaluer la probabilité de ruine, basées respectivement sur le modèle d'endommagement linéaire de Miner et sur la loi de propagation de fissure de Paris à seuil, qui prennent en compte les aléas quantifiés sur les charges de trafic réel et sur la résistance déduite des essais de fatigue. L'application du théorème central limite permet des calculs analytiques explicites du dommage cumulé. La modélisation de l'avancement de fissure par processus Markovien simplifie les calculs de la distribution de probabilité. Un programme informatique est fait pour calculer l'intégrale J et pour déterminer le facteur d'intensité de contraintes.
APA, Harvard, Vancouver, ISO, and other styles
11

Serra, Romain. "Opérations de proximité en orbite : évaluation du risque de collision et calcul de manoeuvres optimales pour l'évitement et le rendez-vous." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0035/document.

Full text
Abstract:
Cette thèse traite de l'évitement de collision entre un engin spatial opérationnel, appelé objet primaire, et un débris orbital, dit secondaire. Ces travaux concernent aussi bien la question de l'estimation du risque pour une paire d'objets sphériques que celle du calcul d'un plan de manoeuvres d'évitement pour le primaire. Pour ce qui est du premier point, sous certaines hypothèses, la probabilité de collision s'exprime comme l'intégrale d'une fonction gaussienne sur une boule euclidienne, en dimension deux ou trois. On en propose ici une nouvelle méthode de calcul, basée sur les théories de la transformée de Laplace et des fonctions holonomes. En ce qui concerne le calcul de manoeuvres de propulsion, différentes méthodes sont développées en fonction du modèle considéré. En toute généralité, le problème peut être formulé dans le cadre de l'optimisation sous contrainte probabiliste et s'avère difficile à résoudre. Dans le cas d'un mouvement considéré comme relatif rectiligne, l'approche par scénarios se prête bien au problème et permet d'obtenir des solutions admissibles. Concernant les rapprochements lents, une linéarisation de la dynamique des objets et un recouvrement polyédral de l'objet combiné sont à la base de la construction d'un problème de substitution. Deux approches sont proposées pour sa résolution : une première directe et une seconde par sélection du risque. Enfin, la question du calcul de manoeuvres de proximité en consommation optimale et temps fixé, sans contrainte d'évitement, est abordée. Par l'intermédiaire de la théorie du vecteur efficacité, la solution analytique est obtenue pour la partie hors-plan de la dynamique képlérienne linéarisée
This thesis is about collision avoidance for a pair of spherical orbiting objects. The primary object - the operational satellite - is active in the sense that it can use its thrusters to change its trajectory, while the secondary object is a space debris that cannot be controlled in any way. Onground radars or other means allow to foresee a conjunction involving an operational space craft,leading in the production of a collision alert. The latter contains statistical data on the position and velocity of the two objects, enabling for the construction of a probabilistic collision model.The work is divided in two parts : the computation of collision probabilities and the design of maneuvers to lower the collision risk. In the first part, two kinds of probabilities - that can be written as integrals of a Gaussian distribution over an Euclidean ball in 2 and 3 dimensions -are expanded in convergent power series with positive terms. It is done using the theories of Laplace transform and Definite functions. In the second part, the question of collision avoidance is formulated as a chance-constrained optimization problem. Depending on the collision model, namely short or long-term encounters, it is respectively tackled via the scenario approach or relaxed using polyhedral collision sets. For the latter, two methods are proposed. The first one directly tackles the joint chance constraints while the second uses another relaxation called risk selection to obtain a mixed-integer program. Additionaly, the solution to the problem of fixed-time fuel minimizing out-of-plane proximity maneuvers is derived. This optimal control problem is solved via the primer vector theory
APA, Harvard, Vancouver, ISO, and other styles
12

Gao, Yingzhong. "Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://pastel.archives-ouvertes.fr/pastel-00569129.

Full text
Abstract:
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
APA, Harvard, Vancouver, ISO, and other styles
13

Woittequand, Fabrice. "Étude théorique de la dynamique des collisions réactives : calcul de la probabilité de réaction cumulée N (E) : et étude de l'influence de la topologie de la surface de potentiel sur la dynamique de la réaction." Lille 1, 2004. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2004/50376-2004-297.pdf.

Full text
Abstract:
La dynamique des collisions réactives s'effectuant en phase gazeuse a connu un essor considérable durant les quinze dernières années. Le perfectionnement de l'outil informatique et des méthodes numériques permet d'améliorer le caractère apporté des calculs quantiques exacts. Les constantes de vitesse jouent un rôle majeur dans la description des réactions chimiques, notamment en cinétique. Du point de vue théorique, cette information est souvent la seule dont on dispose quand on s'intéresse à des systèmes complexes mettant en jeu plus de 3 ou 4 atomes. Elle est de plus directement en relation avec l'expérience. La constante de vitesse peut être déterminée à partir de l'approche quantique développée par W. H. Miller, basée sur le calcul de la probabilité de réaction cumulée N(E) (c'est-à-dire la probabilité de réaction sommée sur les états quantiques initiaux et finaux accessibles pour une énergie totale E). La constante de vitesse est simplement la moyenne au sens de Boltzmann de cette probabilité de réaction cumulée. Le calcul de cette grandeur représente la majeure partie de l'effort numérique nécessaire à la détermination de la constante de vitesse. Nous avons donc, dans cette première partie, mené une étude comparative entre les méthodes dites directes (décomposition LU), et itératives (GMRes), utilisables pour la détermination de N(E)
Des travaux menés il y a quelques années ont montré que certains facteurs influencent de manière importante la dynamique des collisions réactives indirectes du type A + BC → AB + C. Parmi ces facteurs, la topologie du puits intermédiaire joue un rôle déterminant sur la distribution d'énergie des produits. Des études classiques et quantiques à une dimension, pour la réaction modèle C+ NO → CN + O, ont permis de montrer que: 1)- Un accroissement de l'anisotropie p du puits (définie comme le rapport au fond du puits des constantes de force quadratiques kCN et kNO le long des directions CN et NO), entraîne une excitation vibrationnelle accrue de la molécule AB nouvellement formée. 2)- La mise en évidence de comportements " chaotiques" de la population des niveaux vibrationnels de AB à basse énergie à partir d'une valeur seuil d'anisotropie. Ce comportement pouvant être attribué à l'existence, dans ce domaine d'énergie, de résonances quantiques qui n'ont pas leur équivalent classique et qui dominent la dynamique du processus de collision. Ces résultats bien que limités à une approche colinéaire étaient les seuls qui tentaient de donner des lois de comportement dynamique pour les réactions indirectes: L' objectif de cette deuxième partie est donc de généraliser les lois établies précédemment en prenant en compte tous les degrés de liberté
APA, Harvard, Vancouver, ISO, and other styles
14

Kachigar, Ghazal. "Questions de localisabilité pour le calcul distribué." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0339/document.

Full text
Abstract:
Cette thèse suit un plan à deux parties. Le point de départ en est la notion de résistance à la localisation, qui est importante en calcul distribué quantique.Dans la première partie, qui est plutôt théorique, nous retraçons l’historique de certaines notions et résultats en information quantique et en calcul distribué, plus précisément le phénomène d’intrication et la condition non-signalling en information quantique et le modèle LOCAL et le problème de coloration en calcul distribué. Ensuite, nous évoquons le modèle φ-LOCAL, développé en 2009 comme adaptation de la condition non-signalling au modèle LOCAL dans le but d’étudier l’existence d’algorithmes distribués quantiques. Finalement, nous soulignons quelques limites du modèle φ-LOCAL à l’aide des notions de consistance globale et de consistance locale, et nous présentons une version plus adéquate de ce modèle.La deuxième partie comporte les principaux résultats techniques obtenus au cours de cette thèse dans le domaine de la théorie des probabilités. Nous introduisons la notion de k-localisabilité qui est une traduction probabiliste du modèle φ-LOCAL. Nous montrons en quoi cette notion est proche, mais plus faible, que la notion de k-dépendance, largement étudiée dans la littérature probabiliste. Nous évoquons des résultats récents autour de la coloration 1-dépendante du chemin qui permettent de conclure au sujet de la coloration 1-localisable du chemin : elle est possible dès qu’il y a plus de quatre couleurs. Dans la suite, nous traitons la question de la possibilité de la coloration 1-localisable du chemin à l’aide de trois couleurs : nous verrons qu’elle n’est pas possible. Pour répondre à cette question, nous avons eu recours à la programmation linéaire et à la combinatoire : en particulier, nous démontrons un théorème qui donne la solution explicite d’un programme linéaire ayant une forme particulière, ainsi qu’une formule pour les nombres de Catalan
This thesis is divided in two parts. Its starting point is the concept of resistance to localisation, an important concept in distributed quantum computing.In the first, theoretical part of this thesis, we go over the history of certain concepts and results in quantum information theory and distributed computing, such as the phenomenon of entanglement and the non-signalling condition in the first domain, and the LOCAL model and the colouring problem in the second domain. We then focus on the φ-LOCAL model, whose goal is to study the possibility of quantum distributed algorithms, and which was developedin 2009 by adapting the non-signalling condition to the LOCAL model. We introduce the concepts of global and local consistency in order to emphasise some shortcomings of this model. Finally, we present a more adequate version ofthe φ-LOCAL model.The second part of this thesis contains our major technical results in probability theory. We define the concept of k-localisability which is a probabilistic translation of the φ-LOCAL model. We show that this concept is close to but weaker than the concept of k-dependence which is well-studied in the probabilistic literature. We mention recent results concerning 1-dependent colouring of the path graph and the conclusion they allow us to reach with regards to 1-localisable colouring of the path graph : that it is possible with four or more colours. The rest of this part is dedicated to answering the question of the possibility of 1-localisable colouring of the path graph using three colours which we will show to be impossible. In answering this question we have made use of methods in linear programming and combinatorics. In particular, we prove a theorem on the explicit solution of a linear programming problem having a certain form, and a formula for the Catalan numbers
APA, Harvard, Vancouver, ISO, and other styles
15

Durand, Pascal. "Modélisation de brouillards de gouttelettes par une approche statistique." Rouen, 1998. http://www.theses.fr/1998ROUES023.

Full text
Abstract:
Un modèle numérique, basé sur une approche de type fonction densité de probabilité, a été développé pour calculer le mélange turbulent intervenant au sein des brouillards de gouttelettes se vaporisant. Ce sous modèle est basé sur la simulation stochastique de type Monte Carlo d'une équation de transport de la PDF jointe liquide-gaz prenant en compte aussi bien le mélange air-fuel vapeur à grande échelle que l'effet de la turbulence à petite échelle. Cette dernière est causée par le transport moléculaire dans le champ turbulent, lui-même perturbe par la dynamique aléatoire des gouttes se vaporisant. L'interaction vaporisation-micromélange est traitée par un processus modifié de coalescence-redispersion où l'on a introduit une partie laminaire au mélange. Le sous modèle a été incorporé au code de calcul tridimensionnel Kiva II. L'analyse de la structure fluctuante du champ de fuel vapeur a montré des distributions discontinues de fraction massique et de température dans les zones où les gouttes ne sont pas entièrement vaporisées. Les distributions locales sont très différentes de celles habituellement supposées par les modèles classiques qui supposent la vapeur parfaitement mélangée dans la maille. L'application de ce modèle au cas Diesel montre un bon comportement en terme de prédiction des champs de concentrations et de dégagement de chaleur. Le modèle de PDF permet d'obtenir des informations détaillées sur les sites probables d'auto-allumage, sur les domaines occupes par le fuel vapeur et sur les zones de combustion. Dans la configuration moteur-fusée, la méthode permet d'obtenir une hauteur d'accrochage au proche voisinage de l'injecteur, comme l'a montré l'expérience, contrairement au modèle EBU. La dynamique aléatoire de la phase liquide contribue fortement au champ de fluctuations de température, très intense dans la zone de stabilisation moyenne de la flamme.
APA, Harvard, Vancouver, ISO, and other styles
16

Sab, Karam. "Sur quelques méthodes en mécanique aléatoire." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00519684.

Full text
Abstract:
Cette thèse contient quatre contributions indépendantes a la mécanique aléatoire: 1) une contribution aux suites à discrépance faible afin d'accélérer la convergence des algorithmes de type Monte-Carlo ; 2) l'homogénéisation des matériaux élastiques à microstructure aléatoire : on définit rigoureusement les tenseurs élastiques macroscopiques, on donne une méthode de simulation pour les calculer, enfin cette méthode est mise en oeuvre sur un matériau fictif ; 3) la fatigue à grand nombre de cycles des métaux polycristallins : on établit un nouveau critère d'endurance pour tous les chargements périodiques ; ce critère est susceptible de modéliser l'aspect aléatoire de la rupture ; 4) l'analyse de la simulation en calcul a 1 rupture probabiliste des structures discrètes : on montre notamment que l'approche par les vitesses est adaptée quand on a à effectuer une simulation et que l'algorithme du simplexe peut être utilisé.
APA, Harvard, Vancouver, ISO, and other styles
17

Bouba, Oumarou. "Théories quantique et semi-classique des intégrales radiales de transitions dipolaires et multipolaires des états excités : Applications au calcul des forces d'oscillateur et des probabilités de transition dans l'approximation à une configuration." Orléans, 1986. http://www.theses.fr/1986ORLE0010.

Full text
Abstract:
Calcul des intégrales radiales à l'approximation quasi classique (JWKB) des fonctions d'onde radiales, complétée par une description en termes de trajectoires elliptiques de l'électron optique. Obtention d'expressions analytiques de ces intégrales dont on simplifie le calcul à l'aide d'une méthode basée sur le développement limite d'une fonction bien adaptée à des calculs par interpolation ou extrapolation : elles s'expriment toutes en termes de deux fonctions fondamentales qui ne dépendent que de la différence entre deux nombres quantiques principaux effectifs des états initial et final. Déduction de forces d'oscillateur et probabilités de transition aussi précises que celles obtenues par quantique.
APA, Harvard, Vancouver, ISO, and other styles
18

Mammone, Rinaldi Angelo. "Équations philosophiques : la construction de la science mathématique de la politique par Condorcet dans l'«Essai sur la probabilité des décisions ». Un essai de philologie mathématique." Paris, EHESS, 2007. http://www.theses.fr/2007EHES0005.

Full text
Abstract:
L'essai sur la probabilité des décisions de Condorcet est un paradoxe pour une histoire simplement mathématique des mathématiques : il montre que les mathématiciens ont jugé la même œuvre 1. Fondamentale (début XIXe siècle), puis 2. Erronée et trompeuse (XIXe - moitié XX siècle), et aujourd'hui 3. Encore fondamentale. Par les étapes de cette histoire - les oppositions qui partagent les mathématiciens, les combats pour sacraliser une façon de faire 'la science', et les combats pour transmettre ou pour changer les mémoires - la première partie de cette thèse cherche à faire une histoire non seulement interne, mais toutefois pertinente aux questions intellectuelles débattues. La seconde partie cherche à tracer des parcours parmi les textes qui, à côté et avant les équations de Condorcet, donnent un sens aux mots qu'il utilise ; on montre lors des liaisons intimes entre la recherche mathématique de la solution d'un problème et la recherche philosophique qui l'a précédée et accompagnée
The Condorcet's Essai sur la probabilité des décisions is a paradox for a mere mathematical history of mathematics : mathematicians judged this text 1. Very important (18th-early 19th century), 2. An error and a source of error (19th-half 20th century), 3. And today again very important. As a mathematical history focusing only on mathematics is insufficient, a history of mathematics must deal both with the calculations and their (philosophical, political, religious) senses. In the first part I show the history of this paradox, analysing the oppositions between the groups of mathematicians, the fight to sacralize some researches as 'science', and the fights to preserve or to change memories. In the second part I try to follow the sound and meaning of the words Condorcet uses, through the texts coeval and previous to his calculations. I show then the intimate relations between the mathematical quest of solutions to problems and the philosophical research that goes before and along it
APA, Harvard, Vancouver, ISO, and other styles
19

Touati, Karim. "Validation probabiliste d'un code de calcul numérique : application aux calculs des fondations superficielles avec une loi élastoplastique." Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0344.

Full text
Abstract:
Les progrès récents des techniques expérimentales, de la modélisation rhéologique, des outils informatiques et de calculs, dans le domaine de la mécanique des sols, ont abouti à la réalisation de codes de calculs numériques utilisant des modèles de comportement sophistiques capables de décrire les aspects les plus complexes de la rhéologie du matériau. L'utilisation de ces codes de calculs dans le dimensionnement des grands ouvrages de géotechnique reste fragmentaire en raison des lacunes persistant dans la définition de leur domaine d'application et dans leur validation. Le présent travail a été réalisé dans le cadre du groupe validation des codes du gréco-géomatériaux, au sein du projet erreur de code. Ce travail a pour objectif de développer une méthodologie d'estimation de l'erreur de code pour assurer la prise en compte des incertitudes, erreurs et autres aléas dans le processus de validation des codes. Il comprend huit chapitres qui ont été regroupés en trois parties. La première partie, qui comprend trois chapitres, fixe le cadre général de l'étude, présente la methodologie générale de validation, recense les différents essais et outils informatiques développés pour sa mise en application (dossiers de validation) et expose la méthodologie que nous avons conçue pour une validation probabiliste des codes de calcul. La deuxième partie est consacrée à la valorisation de l'information en géotechnique pour sa prise en compte dans les modélisations. Elle présente l'outil complémentaire nécessaire à la validation de la modélisation numérique en géotechnique, outil qui consiste en une banque de données rhéologiques pour les sols, Modelisol, en partie conçue et développée dans le cadre de ce travail. La troisième partie rassemble, dans le sixième chapitre, l'ensemble des données et des outils propres à cette étude ainsi que leurs traitements. On présente dans les deux derniers chapitres, la mise en œuvre complète de la méthodologie erreur de code: les résultats de la modélisation du comportement du sol sous chemins de sollicitations homogènes réalisés au laboratoire, les résultats des calculs d'enfoncement de fondations superficielles en centrifugeuse, comparés à l'ensemble des résultats expérimentaux et enfin les différents traitements realisés pour estimer la dispersion des résultats, évaluer l'influence des aléas experimentaux et bâtir des modèles de prédiction des différents écarts entre résultats expérimentaux et résultats de calculs définis par cette méthodologie
APA, Harvard, Vancouver, ISO, and other styles
20

Cabanal-Duvillard, Thierry. "Probabilités libres et calcul stochastique : application aux grandes matrices aléatoires." Paris 6, 1999. http://www.theses.fr/1999PA066594.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Nicolae, Angelica. "Presentazione ipertestuale del Calcolo della probabilità." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4916/.

Full text
Abstract:
Presentazione del lavoro svolto per la realizzazione dell'ipertesto, avente come argomento matematico: il Calcolo della probabilità. L'ipertesto si trova all'indirizzo: http://progettomatematica.dm.unibo.it/Prob2/index.html ed è una continuazione del lavoro svolto durante il tirocinio, che si trova all'indirizzo: http://progettomatematica.dm.unibo.it/ProbElem/index.html
APA, Harvard, Vancouver, ISO, and other styles
22

Xuefeng, Wu. "Modélisation numérique de la fissuration du béton à partir d'une approche probabiliste." Marne-la-vallée, ENPC, 1991. http://www.theses.fr/1991ENPC9118.

Full text
Abstract:
Le but de ce travail est d'élaborer une modélisation numérique de la fissuration du béton en tenant compte de l'heterogeneite du matériau. On modélise de manière explicite cette heterogeneite vis-à-vis de la constitution et de l'apparition des fissures par des valeurs aléatoires, et décrit les micro- et macro fissures comme des discontinuités cinématiques. On aboutit a une modélisation, que l'on espère, objective donnant des résultats qui soient peu dépendant du maillage adopte. Ce modèle nous permet de décrire plus pertinemment le processus de fissuration du béton et de donner des informations précises concernant l'ouverture et la position des fissures, ce qui intéresse les ingénieurs du génie civil pour faire un diagnostic de l'état de l'ouvrage endommage. Les résultats numériques obtenus couvrent le domaine des structures en béton, béton arme et béton de fibres. Une grande série d'essais de traction directe a été réalisée sur trois types de bétons pour déterminer les fonctions de distribution de la résistance à la traction et du module d'young en fonction du volume de matériau. Cette étude nous a permis de proposer des expressions analytiques assez générales qui tentent d'accéder aux fonctions de distribution des résistances à la traction, a partir de la résistance en compression, pour n'importe quel type de béton
APA, Harvard, Vancouver, ISO, and other styles
23

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions génomiques conservées." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00377445.

Full text
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence.
Un aspect important de notre démarche est le fait de prendre en compte l'existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l'ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d'une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d'une permutation signée aléatoire. Nous avons utilisé la technique ``Markov chain imbedding'' pour obtenir cette distribution en terme d'un produit de matrices de transition d'une certaine chaîne de Markov finie. La connaissance de cette
distribution fournit par la suite une très bonne approximation pour la distribution de la distance d'inversion.
APA, Harvard, Vancouver, ISO, and other styles
24

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions genomiques conservées." Aix-Marseille 1, 2008. http://www.theses.fr/2008AIX11067.

Full text
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence. Un aspect important de notre démarche est le fait de prendre en compte l’existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l’ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d’une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d’une permutation signée aléatoire. Nous avons utilisé la technique “Markov chain imbedding” pour obtenir cette distribution en terme d’un produit de matrices de transition d’une certaine chaîne de Markov finie. La connaissance de cette distribution fournit par la suite une très bonne approximation pour la distribution de la distance d’inversion
This thesis is concentrated on some probability and statistical issues linked to genomic comparison. In the first part we present a compound Poisson approximation for computing probabilities involved in significance tests for conserved genomic regions found by the reference-region approach. An important aspect of our computations is the fact that we are taking into account the existence of multigene families. In the second part we propose three measures, based on the transposition distance in the symmetric group, for quantifying the exceptionality of the gene order in conserved genomic regions. We obtain analytic expressions for their distribution in the case of a random permutation. In the third part of the thesis we study the distribution of the number of cycles in the breakpoint graph of a random signed permutation. We use the Markov chain imbedding technique to obtain this distribution in terms of a product of transition matrices of a certain finite Markov chain. The knowledge of this distribution provides a very good approximation for the distribution of the reversal distance
APA, Harvard, Vancouver, ISO, and other styles
25

Sellier, Alain. "Modélisations probabilistes du comportement de matériaux et de structures en génie civil." Cachan, Ecole normale supérieure, 1995. http://www.theses.fr/1995DENS0012.

Full text
Abstract:
Des méthodes de calcul basées sur la théorie des probabilités sont développées. Elles permettent d'étudier la sécurité de structures métalliques à assemblages semi-rigides et la sécurité de structures en béton arme. Ces méthodes sont également intéressantes pour la modélisation de matériaux hétérogènes. Elles permettent alors de développer une loi de comportement du béton intégrant des phénomènes aussi divers que la localisation des déformations, les effets d'échelle ou les mécanismes physico-chimiques de la réaction alcali-granulats
APA, Harvard, Vancouver, ISO, and other styles
26

Dimauro, Giuliana. "Il calcolo delle Probabilità: storia, didattica ed applicazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Abstract:
Nella seguente tesi viene fornita un’analisi dello sviluppo del calcolo delle probabilità. Ne primo capitolo è presente un excursus storico che ripercorre l’evoluzione di questa disciplina attraverso i secoli. Segue un capitolo dedicato alla didattica della probabilità con l’analisi di alcune indagini sulla valutazione degli studenti che vengono fatte a livello internazionale e nazionale. Inoltre, è stata condotta un’indagine locale in un Istituto Secondario Superiore. Nel terzo ed ultimo capitolo, si propone un’applicazione concreta del calcolo delle probabilità analizzando alcuni giochi d’azzardo con l’ausilio di software quali Mathematica e Matlab per mettere in luce l’iniquità di tali giochi.
APA, Harvard, Vancouver, ISO, and other styles
27

Arroyo-Contreras, Moises. "Approche probabiliste du comportement élasto-plastique de structures marines, sous sollicitations aléatoires de houles." Marne-la-vallée, ENPC, 1989. http://www.theses.fr/1989ENPC8904.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Houissa, Asma. "Les algorithmes d’apprentissage pour l’aide au stationnement urbain." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV001.

Full text
Abstract:
L’objectif de cette thèse est de développer, d’intégrer et de tester une nouvelle approche algorithmique d’aide au stationnement dans les centres urbains. Considérons différents types d’infrastructures déployées allant de la détection des entrées/sorties des véhicules jusqu'à la variation dans le temps du nombre de places de stationnement disponibles dans chaque portion de rue, nous montrons qu’il est possible de proposer une méthode efficace qui détermine un itinéraire qui minimise l’espérance de temps pour trouver une place de stationnement disponible et de prédire la disponibilité des placesde stationnement.Pour cela, la zone urbaine choisie sera donc considérée comme un ensemble de ressources de stationnement (segments de rues).Nous modélisons d’abord cette zone urbaine par un graphe où les sommets désignent les carrefours et les arcs représentent les portions de rues. Les paramètres essentiels pour notre modèle de réseau urbain sont la capacité de stationnement et le temps de parcours des portions de rue.L’originalité et l’aspect innovant de notre approche s’appuient sur deux principes.Le premier principe concerne le guidage comme une ressource : il ne s’agit pas de guider vers une place libre mais de proposer un parcours qui optimise l’espérance de temps de trouver une telle place. Pour cela nous déterminons dans une zone centrée sur une destination donnée, le parcours à effectuer par un véhicule pour minimiser son espérance de temps de trouver une place destationnement le plus rapidement possible.Ainsi nous avons mis en œuvre un algorithme d’apprentissage par renforcement basée sur la méthode LRI (Linear Reward Inaction) et la méthode Monte Carlo pour minimiser l’espérance de temps de trouver une place de stationnement en zone urbaine.Nous avons comparé cet algorithme avec une approche globale basée sur l’évaluation arborescente à profondeur bornée.Le second principe repose sur la prédiction des places de stationnement disponibles par périodes de temps homogènes où on ne s’intéresse pas à une place de stationnement en temps réel mais aux places de stationnement par zones. Il s’agit alors pour le système de pouvoir prédire le potentiel de places libres dans chacune des ressources pour les prochaines périodes. On ne vise donc pas ici la prédiction de la disponibilité de chaque place ; chaque ressource sera considérée comme une zone de stockage dont la disponibilité sera établie en grande partie en fonction des flux d’entrée et de sortie de la portion. Pour ce principe, nous avons donc déterminé par algorithmes de calculs et d’apprentissages la probabilité qu’il y ait au moins une place libre pour stationner dans un tronçon de rue pour un créneau de temps donné. Les principales données nécessaires pour effectuer ces calculs sont les séries temporelles d’entrée sortie de chaque véhicule aux intersections des rues et les variations des places de stationnement au cours du temps.Nous avons évalué les performances de notre approche par simulations sur des données générées aléatoirement et des données réelles obtenues sur un quartier de Versailles
The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don’t aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles
APA, Harvard, Vancouver, ISO, and other styles
29

De, Marco Stefano. "On probability distributions of diffusions and financial models with non-globally smooth coefficients." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00588686.

Full text
Abstract:
Some recent works in the field of mathematical finance have brought new light on the importance of studying the regularity and the tail asymptotics of distributions for certain classes of diffusions with non-globally smooth coefficients. In this Ph.D. dissertation we deal with some issues in this framework. In a first part, we study the existence, smoothness and space asymptotics of densities for the solutions of stochastic differential equations assuming only local conditions on the coefficients of the equation. Our analysis is based on Malliavin calculus tools and on " tube estimates " for Ito processes, namely estimates for the probability that the trajectory of an Ito process remains close to a deterministic curve. We obtain significant estimates of densities and distribution functions in general classes of option pricing models, including generalisations of CIR and CEV processes and Local-Stochastic Volatility models. In the latter case, the estimates we derive have an impact on the moment explosion of the underlying price and, consequently, on the large-strike behaviour of the implied volatility. Parametric implied volatility modeling, in its turn, makes the object of the second part. In particular, we focus on J. Gatheral's SVI model, first proposing an effective quasi-explicit calibration procedure and displaying its performances on market data. Then, we analyse the capability of SVI to generate efficient approximations of symmetric smiles, building an explicit time-dependent parameterization. We provide and test the numerical application to the Heston model (without and with displacement), for which we generate semi-closed expressions of the smile
APA, Harvard, Vancouver, ISO, and other styles
30

Callens, Stéphane. "La valeur pratique du calcul des probabilités selon Émile Borel : les maîtres de l'erreur." Paris, EHESS, 1994. http://www.theses.fr/1994EHES0027.

Full text
Abstract:
L'immense succes desapproches statistiques et probabilitaires fait encore mystere. Cependant, un reexamen historique de l'oeuvre du probabiliste emile borel et de quelques uns de ses predecesseurs permet de se rendre compte des deplacements operes par la probabilisation massive des sciences depuis la physique mathematique du dix-neuvieme siecle. Il faut d'abord y voir une promotion de la precision, compris non pas tellement comme l'equipement instrumental d'une procedure d'acces a la verite, mais plutot comme l'autonomisation des procedex analyticonumeriques par rapport aux procedes algebrico-logiques. La precision comme exigence dans la connaissance du monde naturel ou social ouvre un espace d'ajustement des hommes au monde, un espace degage en particulier pour les approches statistico-probabilitaires. Plus encore, il faut voir dans emile borel l'achevement d'une reforme complete de la pensee de la mesure. La notion de mesure comprenait de vieilles articulations entre la proportion, l'harminie, l'exces. Cellesci se voient transformees pour faire place a une nouvelle mesure, libre dans sa divertist, epuree axiomatiquement, et efficace dans l'instauration d'un rapport ajuste au monde naturel et social
The hu ge success of statistical and probabilistical approaches is still a mystery. Ne vertheless, a new historical look at the work of probabilist emile borel and of some of his predecessors, allows us to realize the shifts operated by the massive probabilisation of sciences since the mathematical physics of the nineteenth century. One should first see in it a promotion of precision, not so much as the instrumental equipment of a procedure for reaching truth, but rather as the autonomisation of analytico-numerical processes from algebrico-logical processes. Precision as a requirement in the knowledge of the social or natural world opens a space for men to adjust to the world, a space left open especially for the statistical and probabilistic approaches. More so, one should see in the work of emile borel, the completion of a total reform of the idea of measure. The notion of measure included old junctions between proportion, harmony, excess. These have been transformed to leave the way to a new measure, free in its diversity, axiomaticaly purged, and efficient in the establishment of relations fitted to the social and natural world
APA, Harvard, Vancouver, ISO, and other styles
31

Shao, Jun. "Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22771/document.

Full text
Abstract:
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel
Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context
APA, Harvard, Vancouver, ISO, and other styles
32

Curzi, Gianluca. "Non-laziness in implicit computational complexity and probabilistic λ-calculus". Thesis, Université de Paris (2019-....), 2020. http://www.theses.fr/2020UNIP7010.

Full text
Abstract:
Cette thèse explore les avantages de la “non-paresse” dans la Complexité Computationnelle implicite et dans le lambda calcul probabiliste. Plus précisément, cette thèse peut être divisée en deux parties principales. Dans la première, nous étudions dans tous les sens les mécanismes d’effacement et de duplication linéaire, qui nous conduisent aux systèmes de typage LEM (Lin- early Exponential Multiplicative Type Assignment) et LAM (Linearly Additive Multiplicative Type Assignment). Le premier est capable d’exprimer des versions plus faibles des règles exponentielles de la Logique Linéaire, tandis que le second est doté de règles additifs plus faibles, appelées additifs linéaires. Ces systèmes bénéficient respectivement d’une élimination de coupure cubique et d’un résultat de normalisation linéaire. Étant donné que les additifs linéaires ne nécessitent pas d’évaluation paresseuse pour éviter l’explosion exponentielle de la normalisation (contraire- ment aux additifs standard), ils peuvent être utilisés pour obtenir une caractérisation implicite des fonctions calculables en temps polynomial probabiliste qui ne dépend pas du choix de la stratégie de réduction. Ce résultat a été réalisé dans STA, un système obtenu en dotant STA (Soft Type Assignment) d’une formulation aléatoire des additifs linéaires, qui capture aussi les classes de complexité PP et BPP. La deuxième partie de la thèse est centrée sur le lambda calcul probabiliste doté d’une sémantique opérationnelle basée sur la réduction de tête, c’est-à-dire une politique d’évaluation non paresseuse d’appel par nom. Nous prouvons que la bisimilarité probabiliste est “fully abstract” par rapport à l’équivalence observationnelle. Ce résultat témoigne le pouvoir discriminant de la non-paresse, qui permet de retrouver une correspondance parfaite entre les deux équivalences qui manquait dans le cadre paresseux. De plus, nous montrons que la similarité probabiliste est correcte mais pas complète par rapport au préordre observationnel
This thesis explores the benefits of non-laziness in both Implicit Computational Complexity and probabilistic computation. More specifically, this thesis can be divided in two main parts. In the first one, we investigate in all directions the mechanisms of linear erasure and duplication, which lead us to the type assignment systems LEM (Linearly Exponential Multiplicative Type Assignment) and LAM (Linearly Additive Multiplicative Type Assignment). The former is able to express weaker versions of the exponential rules of Linear Logic, while the latter has weaker additive rules, called linear additives. These systems enjoy, respectively, a cubic cut-elimination and a linear normalization result. Since linear additives do not require a lazy evaluation to avoid the exponential blow up in normalization (unlike the standard additives), they can be employed to obtain an implicit characterization of the functions computable in probabilistic polynomial time that does not depend on the choice of the reduction strategy. This result is achieved in STA⊕, a system that extends STA (Soft Type Assignment) with a randomized formulation of linear additives. Also, this system is able to capture the complexity classes PP and BPP. The second part of the thesis is focused on the probabilistic λ-calculus endowed with an operational semantics based on the head reduction, i.e. a non-lazy call-by-name evaluation policy. We prove that probabilistic applicative bisimilarity is fully abstract with respect to context equivalence. This result witnesses the discriminating power of non-laziness, which allows to recover a perfect match between the two equivalences that was missing in the lazy setting. Moreover, we show that probabilistic applicative similarity is sound but not complete for the context preorder
APA, Harvard, Vancouver, ISO, and other styles
33

Cercone, Maria Grazia. "Origini e sviluppi del calcolo delle probabilità ed alcune applicazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13500/.

Full text
Abstract:
Questa tesi ripercorre l’evoluzione del calcolo delle probabilità attraverso i secoli partendo dalle origini e giungendo al XX secolo, segnato dall’introduzione della teoria sulle Catene di Markov che, fornendo importanti concetti matematici, troverà in seguito applicazione in ambiti diversi tra loro. Il primo capitolo è interamente dedicato ad illustrare l’excursus storico del calcolo delle probabilità; si parte dalle antiche civiltà, dove l’idea di probabilità sorse intorno a questioni riguardanti la vita comune e il gioco d’azzardo, per arrivare al XX secolo in cui si formarono le tre scuole di pensiero: frequentista, soggettivista e assiomatica. Il secondo capitolo esamina la figura di A. A. Markov e l’importante contributo apportato al calcolo delle probabilità attraverso l’introduzione della teoria delle Catene di Markov. Si trattano poi importanti applicazioni della stessa quali l’Algoritmo di Metropolis-Hastings, il Campionamento di Gibbs e la procedura di Simulated Annealing. Il terzo capitolo analizza un’ulteriore applicazione della teoria markoviana: l’algoritmo di link analysis ranking, noto come algoritmo PageRank, alla base del motore di ricerca Google.
APA, Harvard, Vancouver, ISO, and other styles
34

Lalire, Marie. "Développement d'une notation algorithmique pour le calcul quantique." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0113.

Full text
Abstract:
Partant du double constat que d'une part, aucun formalisme ou langage ne permettait d'exprimer complètement et rigoureusement les algorithmes quantiques, et que d'autre part, ces algorithmes et protocoles comportent nécessairement des parties classiques et des parties quantiques, nous avons choisi de concevoir une algèbre de processus qui intègre de façon cohérente les données et les opérations classiques et quantiques. Pour cette algèbre de processus, nous avons défini une sémantique formelle qui respecte les lois de la mécanique quantique et qui permet une coexistence harmonieuse entre les parties quantiques et les parties classiques d'un même processus. Cette sémantique a conduit à la définition d'une équivalence entre processus du langage
No formalism or language existed ta describe completely and rigorously quantum algorithms and protocols. 5ince these algorithms and protocols have necessarily quantum and classical parts, process algebras seemed a good candidate for such a language. 50, in this thesis, we developed a notation, based on process algebras, which provides a homogeneous style for formai descriptions of concurrent and distributed quantum computations comprising bath quantum and classical parts. Based upon an operational semantics that makes sure that quantum abjects, operations and communications operate according ta the postulates of quantum mechanics, an equivalence has been defined among process states considered as having the same behaviour
APA, Harvard, Vancouver, ISO, and other styles
35

Wills, Stephen J. "Stochastic calculus for infinite dimensional quantum noise." Thesis, University of Nottingham, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.243406.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Derouet, Charlotte. "La fonction de densité au carrefour entre probabilités et analyse en terminale S : Etude de la conception et de la mise en oeuvre de tâches d'introduction articulant lois à densité et calcul intégral." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC126/document.

Full text
Abstract:
Cette thèse porte sur les articulations entre les probabilités et l’analyse en classe de terminale scientifique. Nous avons exploré comment se créent et sont exploités les liens entre les sous-domaines mathématiques des probabilités des lois à densité et du calcul intégral, à travers une recherche centrée sur la notion de fonction de densité. En adoptant le modèle des Espaces de Travail Mathématique et des éléments de la théorie de l’activité, nous nous sommes demandé quelles tâches permettent d’introduire cette notion et de construire la relation sémiotique reliant probabilité et intégrale. Pour aborder cette question, nous avons commencé parfaire une étude épistémologique et historique de la naissance de la notion de lois à densité, qui nous a notamment permis de dégager la place importante de la statistique dans cette genèse. Puis, nous avons effectué une analyse des documents institutionnels et des manuels. Cette analyse a montré que l’articulation entre probabilités à densité et calcul intégral est imposée aux élèves et peu exploitée dans les différentes tâches qui leur sont proposées. Enfin, nous avons étudié la conception et la mise en place de tâches d’introduction originales grâce à une méthodologie de recherche que nous qualifions d’ingénierie didactique collaborative. Ces tâches ont pour objectif de faire construire, par le « collectif » classe, la notion de fonction de densité et d’amener le besoin du calcul d’aire sous une courbe. Nous avons mis en évidence les activités de ce collectif classe, dans la construction de cette notion, en analysant les circulations entre trois sous-domaines : les probabilités à densité, la statistique descriptive et le calcul intégral
This thesis focuses on the connections between probability and analysis (calculus) in the scientific track of Grade 12 (French baccalaureate program). We explored the ways in which links between the mathematics subfields of continuous probability and integral calculus are created and explored, through a research focused on the concept of density function. Using the Mathematical Working Space model and some elements of Activity Theory, we sought to identify tasks that would allow introducing this concept and building the semiotic relationship between probability and integral. In order to address this issue, we began with an epistemological and historical study of the birth of the concept of density function, which enabled us to identify the important role of statistics in this genesis. Then, an analysis of institutional documents and textbooks showed that the link between continuous probability and integral calculus is imposed on students and rarely exploited in the different tasks given to them. Finally, we studied the design and implementation of original introductory tasks through a research methodology that we call “collaborative didactic engineering”. The goal of these tasks is to get the class “collective” to construct the concept of density function and trigger the need for calculating areas under a curve. We highlighted the activities of the class “collective” in the construction of this notion by analyzing articulations between the three subfields: continuous probability, descriptive statistics and integral calculus
APA, Harvard, Vancouver, ISO, and other styles
37

Maire, Sylvain. "Réduction de variance pour l'intégration numérique et pour le calcul critique en transport neutronique." Toulon, 2001. http://www.theses.fr/2001TOUL0013.

Full text
Abstract:
Cette thèse est consacrée aux méthodes de Monte-Carlo et plus particulièrement à la réduction de variance. Dans la première partie, on étudie un algorithme probabiliste, fondée sur une utilisation itérative de la méthode des variables de contrôle, permettant le calcul d'approximations quadratiques. Son utilisation en dimension un pour les fonctions régulières à l'aide de la base de Fourier après périodisation, des bases de polynômes orthogonaux de Legendre et Tchebychef, fournit des estimateurs ayant un ordre de convergence accru pour l'intégration Monte-Carlo. On l'étend ensuite au cadre multidimensionne! par un choix judicieux des fonctions de base, permettant d'atténuer l'effet dimensionnel. La validation numérique est effectuée sur de nombreux exemples et applications. La deuxième partie est consacrée à l'étude du régime critique en transport neutronique. La méthode développée consiste à calculer numériquement la valeur propre principale de l'opérateur de transport neutronique en combi¬nant le développement asymptotique de la solution du problâme d'évolution associé avec le calcul par une méthode de Monte-Carlo de son interprétation probabiliste. Différentes techniques de réduction de varîance sont mises en place dans l'étude de nombreux modèles homogènes et inhomogènes. Une interprétation probabiliste de la valeur propre principale est donnée pour un modèle homogène particulier
This work deals with Monte Carlo methods and is especially devoted to variance-reduction. In the first part, we study a probabilistic algorithm, based on iterated control variates, wich enables the computation of mean-square ap-. Proximations. We obtain Monte Carlo estimators with increased convergence rate for monodimensional regular functions using it with periodized Fourier basis, Legendre and Tchebychef polynomial basis. It is then extended to the multidimensional case in trying to attenuate the dimensional effect by making a good choice of the basis functions. Various numerical examples and applications are studied. The second part deals with criticality in neutron transport theory. We develop a numerical method to compute the principal eigenvalue of the neutron transport operator by combining the Monte-Carlo computation of the solution of the relative Cauchy problem and its formal eigenfunction expansion. Various variance-reduction methods are tested on both homogeneous and inhomo-geaeous models. The stochastic representation of the principal eigenvalue is obtained for a peculiar homogeneous model
APA, Harvard, Vancouver, ISO, and other styles
38

Chase, Tyler A. "Minimizing the probability of ruin in exchange rate markets." Worcester, Mass. : Worcester Polytechnic Institute, 2009. http://www.wpi.edu/Pubs/ETD/Available/etd-043009-162154/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Roy, Pierre-Nicholas. "Méthodes quantiques pour le calcul de niveaux d'énergie, de probabilités de réactions et de spectres photo-électroniques." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq26729.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Estrade, Anne. "Calcul stochastique discontinu sur les groupes de lie." Orléans, 1990. http://www.theses.fr/1990ORLE2007.

Full text
Abstract:
On etudie le plongement dans un groupe de lie des semi-martingales discontinues vectorielles et, reciproquement, le relevement des semi-martingales du groupe sur un espace vectoriel. Dans un premier temps, on presente ces procedes: le plongement est realise grace a une exponentielle stochastique, definie soit comme solution d'une equation differentielle stochastique sur le groupe, soit comme une integrale stochastique multiplicative; le relevement en est l'application inverse. Dans un second temps, on met a profit ces outils de transfert pour preciser le comportement des processus du groupe: elements caracteristiques (partie martingale continue et mesure de sauts), processus a accroissements independants, phenomenes lies aux changements absolument continus de probabilites
APA, Harvard, Vancouver, ISO, and other styles
41

Kassem, Fidaa. "Reliability of reinforced concrete structures : Case of slabs subjected to impact." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0096/document.

Full text
Abstract:
Dans le domaine du génie civil, le dimensionnement des structures en béton armé est essentiellement basé sur des démarches déterministes. Cependant, les informations fournies par des analyses déterministes sont insuffisantes pour étudier la variabilité de la réponse de la dalle. Le manque de connaissance des charges appliquées ainsi que les incertitudes liées à la géométrie de la dalle et les caractéristiques des matériaux nécessitent donc l’utilisation d’une approche fiabiliste qui permet la propagation de ces incertitudes dans les analyses déterministes. L'approche fiabiliste est basée sur le principe de couplage mécano-fiabiliste qui consiste à coupler un modèle stochastique et un modèle déterministe. Cependant un couplage mécano-fiabiliste peut être très exigeant en temps de calcul. Dans le cadre de cette thèse, la méthodologie propre aux problématiques des ouvrages du génie civil est développée et validée tout d'abord sur un cas simple de structures en béton armé. Le cas d'une poutre encastrée en béton armée est proposé. Le système est modélisé sous CASTEM par une approche aux éléments finis de type multifibre. Puis la fiabilité d'une dalle en béton armé impactée par une masse rigide à faible vitesse est étudiée en couplant OpenTURNS à Abaqus. Enfin, une enceinte de confinement en béton précontrainte modélisée sous ASTER est étudiée d'un point de vue probabiliste. Seul le problème physique des dalles en béton armé soumises à une chute de colis dans les centrales nucléaires est examiné en détail. Deux modèles déterministes sont utilisés et évalués afin d’étudier les phénomènes dynamiques appliqués aux dalles en béton armé sous impact : un modèle par éléments finis en 3D modélisé sous Abaqus et un modèle simplifié de type masse-ressort amorti à deux degrés de liberté. Afin d’étudier la fiabilité des dalles en béton armé, nous avons couplé les méthodes Monte Carlo et simulation d’importance avec le modèle de type masse-ressort. FORM est utilisée avec le modèle par éléments finis. L’objectif de cette étude est de proposer des solutions pour diminuer le temps de calcul d'une analyse fiabiliste en utilisant deux stratégies dans le cas des dalles impactées. La première stratégie consiste à utiliser des modèles analytiques qui permettent de prédire avec précision la réponse mécanique de la dalle et qui sont moins coûteux en temps de calcul. La deuxième consiste à réduire le nombre d’appels au modèle déterministe, surtout dans le cas des modèles par éléments finis, en utilisant des méthodes probabilistes d'approximation. Ces deux stratégies sont comparées afin de vérifier l’efficacité de chacune pour calculer la probabilité de défaillance. Enfin, une étude paramétrique est réalisée afin d’étudier l’effet des paramètres d’entrées des modèles déterministes sur le calcul de la probabilité de défaillance
Reinforced concrete structures (RC) are subjected to several sources of uncertainties that highly affect their response. These uncertainties are related to the structure geometry, material properties and the loads applied. The lack of knowledge on the potential load, as well as the uncertainties related to the features of the structure shows that the design of RC structures could be made in a reliability framework. This latter allows propagating uncertainties in the deterministic analysis. However, in order to compute failure probability according to one or several failure criteria, mechanical and stochastic models have to be coupled which can be very time consuming and in some cases impossible. The platform OpenTURNS is used to perform the reliability analysis of three different structures . OpenTURNS is coupled to CASTEM to study the reliability of a RC multifiber cantilever beam subjected to a concentrated load at the free end, to Abaqus to study the reliability of RC slabs which are subjected to accidental dropped object impact during handling operations within nuclear plant buildings, and to ASTER to study the reliability of a prestressed concrete containment building. Only the physical problem of reinforced concrete impacted by a free flying object is investigated in detail. Two deterministic models are used and evaluated: a 3D finite element model simulated with the commercial code “Abaqus/Explicit” and an analytical mass-spring model. The aim of this study is to address this issue of reliability computational effort. Two strategies are proposed for the application of impacted RC slabs. The first one consists in using deterministic analytical models which predict accurately the response of the slab. In the opposite case, when finite element models are needed, the second strategy consists in reducing the number of simulations needed to assess the failure probability. In order to examine the reliability of RC slabs, Monte Carlo and importance sampling methods are coupled with the mass-spring model, while FORM is used with the finite element model. These two stategies are compared in order to verify their efficiency to calculate the probability of failure. Finally, a parametric study is performed to identify the influence of deterministic model parameters on the calculation of failure probability (dimensions of slabs, impact velocity and mass, boundary conditions, impact point, reinforcement
APA, Harvard, Vancouver, ISO, and other styles
42

Bogacz, Margaret M. Sennott Linn I. "An intuitive approach to understanding calculus concepts in business applications using probability theory." Normal, Ill. Illinois State University, 1985. http://wwwlib.umi.com/cr/ilstu/fullcit?p8514766.

Full text
Abstract:
Thesis (D.A.)--Illinois State University, 1985.
Title from title page screen, viewed June 6, 2005. Dissertation Committee: Linn Sennott (chair), Kenneth Berk, John Dossey, Lawrence Spence, Charles Streeter. Includes bibliographical references (leaves 273-274) and abstract. Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
43

Stuppazzini, Simone. "Il Calcolo delle Probabilità - Sperimentazione di un approccio assiomatico nei Licei Scientifici." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19247/.

Full text
Abstract:
Questa tesi nasce dallo sviluppo di un seminario sull'insegnamento del Calcolo delle Probabilità nelle scuole secondarie, di primo e secondo grado, proposto dal Piano Lauree Scientifiche dell'Università di Bologna nel settembre 2018, nella sede di Rimini, e da una tesi magistrale del Dipartimento di Matematica della stessa università. Obbiettivi della tesi: scrivere il materiale didattico relativo a un'intera unità didattica, che sia utilizzabile dai docenti come parte del testo scolastico; mettere in pratica i modelli e le tesi prodotti da una buona ricerca in didattica della matematica; infine confrontare questi ultimi con un modello attualmente utilizzato da molti libri di testo. Da questi obiettivi nasce la sperimentazione in classe di un'unità didattica dedicata al Calcolo delle Probabilità, all'interno di un'esperienza di tirocinio presso il Liceo Scientifico M.Morandi di Finale Emilia (MO). Precisamente in tre classi quarte di indirizzo scientifico sperimentale. Il materiale didattico originale proposto in questa sede, e il modo in cui è presentato il contenuto, rappresentano il risultato principale di questa tesi. In esso si espongono le più importanti proprietà del Calcolo delle Probabilità su spazi finiti, attraverso l'esposizione assiomatica di Kolmogorov, semplificata e adattata per rientrare nel contesto scolastico a cui si fa riferimento. Seguono i risultati sulla sperimentazione in classe, attraverso le impressioni degli studenti, degli insegnanti e le valutazioni delle verifiche. Infine, attraverso quest'ultime, si cerca di valutare il modello sperimentale proposto, confrontandolo con uno degli attuali modelli utilizzati da molti libri di testo. L'esperienza di docenza all'interno di una classe è parte integrante dell'attività di tesi, contribuisce alla crescita professionale, culturale e personale del laureando, e attraverso essa si ha modo di affrontare direttamente la ricerca in didattica della matematica e i problemi relativi all'insegnamento.
APA, Harvard, Vancouver, ISO, and other styles
44

Delahay, Thomas. "Développement d'une méthode probabiliste de calcul en fatigue multiaxiale prenant en compte la répartition volumique des contraintes." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12846.

Full text
Abstract:
Cette étude concerne le développement d'une méthode de calcul probabiliste de la résistance des structures à la fatigue multiaxiale à grand nombre de cycles. Un panorama des méthodes déterministes et probabilistes est présenté, les prévisions d'une sélection de critères sont confrontées à des résultats d'essais afin de juger de leur qualité. Des essais de fatigue à amplitude constante sous sollicitations simples et combinées ont été réalisés sur des éprouvettes lisses en alliage de titane Ti-6A1-4V. Des essais de fatigue en flexion plane alternée symétrique à deux blocs (bas/haut) répétés alternativement jusqu'à fissuration ont permis de confirmer l'existence d'un seuil en contrainte en dessous duquel les cycles ont une influence négligeable sur la durée de vie de cet alliage. Un modèle probabiliste appliqué à la fatigue multiaxiale à grand nombre de cycles sous chargement d'amplitude constante est proposé en combinant l'approche énergétique et volumique du LAMEFIP au formalisme de Weibull. Tout en concervant les avantages de la formulation déterministe (prise en compte de la répartition volumique des contraintes et des déformations et distinction de tous les cas de chargement), cette proposition prévoit une probabilité de fissuration de la structure avant une durée de vie fixée selon le niveau de contrainte. Le modèle prévoit aussi l'effet d'échelle et permet d'estimer la dipersion de la résistance à la fatique. Les prévisions du modèle proposé sont en bon accord avec l'expérience (sur l'alliage de titane Ti-6Al-4V, la fonte à graphite sphéroi͏̈dal EN-GJS800-2 et les aciers C18 recuit, 35CrMo4 trempé revenu). Cette proposition permet de prévoir correctement les courbes P-S-N à partir d'une seule courbe S-N expérimentale. Le développement d'un post-processeur orienté objet de calcul en fatique multiaxiale permet d'appliquer le critère déterministe du LAMEFIP à des éprouvettes entières.
APA, Harvard, Vancouver, ISO, and other styles
45

Leventis, Thomas. "Lambdas-théories probabilistes." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4085/document.

Full text
Abstract:
Le lambda-calcul est un formalisation de la notion de calcul. Dans cette thèse nous nous intéresserons à certaines variantes non déterministes, et nous nous pencherons plus particulièrement sur le cas probabiliste.L'étude du lambda-calcul probabiliste n'est pas nouvelle, mais les travaux précédents considéraient le comportement probabiliste comme un effet de bord. Notre objectif est de présenter ce calcul d'une manière plus équationnelle, en intégrant le comportement probabiliste à la réduction.Tout d'abord nous définissons une sémantique opérationnelle déterministe et contextuelle pour le lambda-calcul probabiliste en appel par nom. Afin de traduire la signification de la somme nous définissons une équivalence syntaxique dans notre calcul, dont nous démontrons qu'il ne déforme pas la réduction: considérer une réduction modulo équivalence revient à considérer simplement le résultat du calcul modulo équivalence. Nous prouvons également un résultat de standardisation.Dans ce cadre nous définissons une notion de théorie équationnelle pour le lambda-calcul probabiliste. Nous étendons certaines notions usuelles, et en particulier celle de bon sens. Cette dernière se formalise facilement dans un cadre déterministe mais est bien plus complexe dans le cas probabiliste.Pour finir nous prouvons une correspondance entre l'équivalence observationnelle, l'égalité des arbres de Böhm et la théorie cohérente sensée maximale. Nous définissons une notion d'arbres de Böhm probabilistes dont nous prouvons qu'elle forme un modèle. Nous démontrons ensuite un résultat de séparabilité disant que deux termes avec des arbres de Böhm distincts ne sont pas observationnellement équivalents
The lambda-calculus is a way to formalize the notion of computation. In this thesis we will be interested in some of these variants introducing non deterministim, and we will focus mostly on a probabilistic calculus.The probabilistic lambda-calculus has been studied for some time, but the probabilistic behaviour has always been treated as a side effect. Our purpose is to give a more equational representation of this calculus, by handling the probabilities inside the reduction rather than as a side effect.To begin with we give a deterministic and contextual operational semantics for the call-by-name probabilistic lambda-calculus. To express the probabilistic behaviour of the sum we introduce a syntactic equivalence in our calculus, and we show it has little consequence on the calculus: reducing modulo equivalence amount to reducing and then looking at the result modulo equivalence. We also prove a standardization theorem.Then using this operational semantics we define a notion of equational theories for the probabilistic lambda-calculus. We extend some usual notions to this setting, and in particular the sensibility of a theory. This notion is quite simple in a deterministic setting but becomes more complicated when we have a probabilistic computation.Finally we prove a generalization of the equality between the observational equivalence, the Böhm tree equality and the maximal coherent sensible lambda-theory. We give a notion of probabilistic Böhm trees, and prove that this forms a model of the probabilistic lambda-calculus. Then we prove a separability result stating that two terms with different Böhm trees are separable, i.e. are not observationally equivalent
APA, Harvard, Vancouver, ISO, and other styles
46

Marverti, Luca. "Analisi di metodi approssimati per il calcolo della probabilità di collisione tra satelliti." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25901/.

Full text
Abstract:
Questa tesi tratta lo studio di approssimazioni analitiche all'integrale della probabilità di collisione tra satelliti, prendendo in considerazione due diversi metodi di calcolo: l'algoritmo Fortran AS 106 e il metodo sviluppato da Serra. Nell'elaborato vengono analizzati i risultati ottenuti dai due algoritmi, studiati ed implementati su Matlab, principalmente sotto tre parametri: tempo di computazione, precisione di calcolo e numero di operazioni effettuate, confrontandoli con il riferimento fornito dall'integrazione numerica dell'integrale di collisione. I risultati ottenuti dell'analisi portano a concludere che entrambi i metodi analitici sono più efficienti rispetto al metodo integrale; in particolar modo l'algoritmo sviluppato da Serra è valutabile come il migliore tra quelli studiati.
APA, Harvard, Vancouver, ISO, and other styles
47

Williams, G. S. Blair. "Probability density methods for modeling local and global aspects of intracellular calcium signaling." W&M ScholarWorks, 2008. https://scholarworks.wm.edu/etd/1539623337.

Full text
Abstract:
Considerable insight into intracellular calcium (Ca) responses has been obtained through the development of whole cell models that are based on molecular mechanisms, e.g., the kinetics of intracellular Ca channels and the feedback of Ca upon these channels. However, a limitation of most deterministic whole cell models to date is the assumption that channels are globally coupled by a single [Ca], when in fact channels experience localized "domain" Ca concentrations. More realistic stochastic Monte Carlo simulations are capable of representing individual domain Ca concentrations but suffer from increased computational demand. This dissertation introduces a novel probability approach which captures important aspects of local Ca signaling while improving computational efficiency.;In many cell types calcium release is mediated by diffusely distributed 1,4,5-trisphosphate receptors (IP3Rs). In Chapter 2 a Monte Carlo whole cell model is presented where each IP3R has a local cytosolic and luminal domain [Ca]. The Monte Carlo model is used to validate a probability density approach where local cytosolic and luminal domains Ca concentrations are represented as bivariate probability densities jointly distributed with IP3R state. Using this probability density approach, analysis shows that the time scale of Ca domain formation and collapse (both cytosolic and luminal) influences global Ca oscillations. Additionally, two reduced models of Ca signaling are derived that are valid when there is a separation of time scales between the stochastic gating of IP3Rs and the dynamics of domain Ca. These reduced whole cell models account for the influence of local Ca signaling on global Ca dynamics and are therefore more realistic than other conventional deterministic whole cell models.;In cardiac myocytes, Ca influx through voltage gated channels causes the release of intracellular Ca, a process known as Ca-induced Ca release (CICR). In Chapter 3 a probability density approach to CICR is derived from advection-reaction equations relating the time-dependent probability density of subsarcolemmal subspace and junctional sarcoplasmic reticulum [Ca] conditioned on "Ca release unit" state. When these equations are coupled to ordinary differential equations for the bulk myoplasmic and sarcoplasmic reticulum [Ca], a realistic but minimal whole cell model is produced. Modeling Ca release unit activity using this probability density approach avoids the computationally demanding task of resolving spatial aspects of global Ca signaling, while accurately representing heterogeneous local Ca signals in a population of diadic subspaces and junctional sarcoplasmic reticulum domains. The probability density approach is validated and benchmarked for computational efficiency by comparison to traditional Monte Carlo simulations. However, a probability density calculation can be significantly faster than the corresponding Monte Carlo simulation, especially when cellular parameters are such that univariate rather than multivariate probability densities may be employed.;Expanding upon the computational advantages of the probability density approach, a moment closure technique is introduced in Chapter 4 which facilitates whole cell modeling of cardiac myocytes when the dynamics of subspace [Ca] are much faster than those of junctional SR [Ca]. The method begins with the derivation of a system of ODEs describing the time-evolution of the moments of the univariate probability density functions for junctional SR [Ca] jointly distributed with CaRU state. This open system of ODEs is then closed using an algebraic relationship that expresses the third moment of junctional SR [Ca] in terms of the first and second moments. Benchmark simulations indicate that the moment closure approach is nearly 10,000-times more computationally efficient than corresponding Monte Carlo simulations while leading to nearly identical results.
APA, Harvard, Vancouver, ISO, and other styles
48

GUERIN, Hélène. "Interprétation probabiliste de l'équation de Landau." Phd thesis, Université de Nanterre - Paris X, 2002. http://tel.archives-ouvertes.fr/tel-00002066.

Full text
Abstract:
Cette thèse porte sur une approche probabiliste de l'équation de Landau, aussi appelée équation de Fokker-Planck-Landau. Cette équation aux dérivées partielles a été obtenue comme limite asymptotique d'équations de Boltzmann lorsque les collisions rasantes deviennent prépondérantes dans un gaz. Elle décrit le comportement de la densité de particules ayant la même vitesses au même instant (on considère ici le ca s spatialement homogène). Cette équation a été jusqu'à maintenant étudiées par des méthodes d'analyse, ce travail propose une nouvelle approche. La première partie de la thèse est consacrée à l'étude de l'existence de solution de l'équation de Landau pour des gaz dit de 'potentiels modérément mous'. L'existence de mesures de probabilité solutions est obtenue par des outils du calcul stochastique. Pour des gaz plus particuliers, il y a en fait unicité de la solution et, grâce au calcul de Malliavin, on en déduit l'existence d'une densité solution de l'équation de Landau. L'approche probabiliste permet d'avoir des conditions initiales assez générales. La seconde partie de la thèse donne une interprétation probabiliste du lien entre les équations de Boltzmann et de Landau. Tout d'abord, les résultats d'existence de solutions au sens probabiliste de l'équation de Boltzmann sont étendus aux 'potentiels modérément mous'. Puis, on montre la convergence de ces solutions vers une solution de l'équation de Landau lorsque les collisions deviennent rasantes dans le gaz. Enfin, dans le cas particulier d'un gaz de Maxwell, la convergence ponctuelle des densités est obtenue en utilisant les techniques du calcul de Malliavin. L'approche probabiliste permet une meilleure compréhension du passage Boltzmann - Landau et permet de le simuler à l'aide d'un système de particules. Quelques simulations sont présentées dans cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
49

Roussel, Olivier. "Génération aléatoire de structures ordonnées par le modèle de Boltzmann." Paris 6, 2012. http://www.theses.fr/2012PA066282.

Full text
Abstract:
Dans le domaine de la combinatoire, la génération aléatoire d’objets est un problème central relié à de nombreux aspects de la science combinatoire, que ce soit à l’énumération exacte ou asymptotique, ou à la vérification de conjectures. De nombreuses méthodes ont été proposées afin de résoudre efficacement ce problème, dont le modèle de Boltzmann. Ce modèle, au prix d’un contrôle moindre sur la taille des objets générés, assure les propriétés de complexité linéaire dans beaucoup de cas réels, et de facilité d’automatisation pour de larges classes d’objets. Cette thèse vise à étendre encore les classes d’objets combinatoires sur lesquelles ce modèle de Boltzmann peut s’appliquer, tout en conservant les propriétés d’efficacité et d’automatisation. La première partie est une étude des algorithmes de générations de Boltzmann existants, ainsi que de leur propriétés et leurs fondations mathématiques sous-jacentes. Dans une seconde partie, nous présentons notre idée de biaiser ces algorithmes pour étendre leur domaine de validité. Nous proposons une extension très générale, avant de l’appliquer à plusieurs opérateurs combinatoires tels que la dérivation, le produit de shuffle et l’opération de dépointage. Enfin, nous présentons un algorithme de génération uniforme pour le produit de Hadamard. Nous appuyons nos algorithmes et résultats par des exemples et données expérimentales illustrant le bien fondé de nos méthodes
Uniform random generation is a central issue in combinatorics. Indeed, random sampling is virtually connected to all parts of combinatorics, whether to exact or asymptotic enumeration, or to the experimental verification of conjectures. Various methods have been developed in order to efficiently solve that issue. Boltzmann model is among them. This method, relaxing some constraints about the size of the object being currently generated, ensures a linear complexity in many actual cases, and can easily be automatized for various combinatorial classes. This thesis aims at enlarging the set of such admissible classes, while keeping the nice properties of linear complexity and ease of automation. The first part is devoted to the presentation of the Boltzmann model and existing Boltzmann samplers, and the study of their properties and mathematical foundations. In the second part, we introduce our idea of biasing those samplers in order to enlarge their range of validity. Firstly, we present a general extension, and then specialize it to several combinatorial operations such as the derivation, the shuffle product or the unpointing operation. Finally, we present a uniform random sampler for the Hadamard product. We highlight our algorithms through this thesis with examples and experimental results, illustrating the efficiency of our methods
APA, Harvard, Vancouver, ISO, and other styles
50

Pathmanathan, S. "The poisson process in quantum stochastic calculus." Thesis, University of Oxford, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.249564.

Full text
Abstract:
Given a compensated Poisson process $(X_t)_{t \geq 0}$ based on $(\Omega, \mathcal{F}, \mathbb{P})$, the Wiener-Poisson isomorphism $\mathcal{W} : \mathfrak{F}_+(L^2 (\mathbb{R}_+)) \to L^2 (\Omega, \mathcal{F}, \mathbb{P})$ is constructed. We restrict the isomorphism to $\mathfrak{F}_+(L^2 [0,1])$ and prove some novel properties of the Poisson exponentials $\mathcal{E}(f) := \mathcal{W}(e(f))$. A new proof of the result $\Lambda_t + A_t + A^{\dagger}_t = \mathcal{W}^{-1}\widehat{X_t} \mathcal{W}$ is also given. The analogous results for $\mathfrak{F}_+(L^2 (\mathbb{R}_+))$ are briefly mentioned. The concept of a compensated Poisson process over $\mathbb{R}_+$ is generalised to any measure space $(M, \mathcal{M}, \mu)$ as an isometry $I : L^2(M, \mathcal{M}, \mu) \to L^2 (\Omega,\mathcal{F}, \mathbb{P})$ satisfying certain properties. For such a generalised Poisson process we recall the construction of the generalised Wiener-Poisson isomorphism, $\mathcal{W}_I : \mathfrak{F}_+(L^2(M)) \to L^2 (\Omega, \mathcal{F}, \mathbb{P})$, using Charlier polynomials. Two alternative constructions of $\mathcal{W}_I$ are also provided, the first using exponential vectors and then deducing the connection with Charlier polynomials, and the second using the theory of reproducing kernel Hilbert spaces. Given any measure space $(M, \mathcal{M}, \mu)$, we construct a canonical generalised Poisson process $I : L^2 (M, \mathcal{M}, \mu) \to L^2(\Delta, \mathcal{B}, \mathbb{P})$, where $\Delta$ is the maximal ideal space, with $\mathcal{B}$ the completion of its Borel $\sigma$-field with respect to $\mathbb{P}$, of a $C^*$-algebra $\mathcal{A} \subseteq \mathfrak{B}(\mathfrak{F}_+(L^2(M)))$. The Gelfand transform $\mathcal{A} \to \mathfrak{B}(L^2(\Delta))$ is unitarily implemented by the Wiener-Poisson isomorphism $\mathcal{W}_I: \mathfrak{F}_+(L^2(M)) \to L^2(\Delta)$. This construction only uses operator algebra theory and makes no a priori use of Poisson measures. A new Fock space proof of the quantum Ito formula for $(\Lambda_t + A_t + A^{\dagger}_t)_{0 \leq t \leq 1}$ is given. If $(F_{\ \! \! t})_{0 \leq t \leq 1}$ is a real, bounded, predictable process with respect to a compensated Poisson process $(X_t)_{0 \leq t \leq 1}$, we show that if $M_t = \int_0^t F_s dX_s$, then on $\mathsf{E}_{\mathrm{lb}} := \mathrm{linsp} \{ e(f) : f \in L^2_{\mathrm{lb}}[0,1] \}$, $\mathcal{W}^{-1} \widehat{M_t} \mathcal{W} = \int_0^t \mathcal{W}^{-1} \widehat{F_s} \mathcal{W} (d\Lambda_s + dA_s + dA^{\dagger}_s),$ and that $(\mathcal{W}^{-1} \widehat{M_t} \mathcal{W})_{0 \leq t \leq 1}$ is an essentially self-adjoint quantum semimartingale. We prove, using the classical Ito formula, that if $(J_t)_{0 \leq t \leq 1}$ is a regular self-adjoint quantum semimartingale, then $(\mathcal{W} \widehat{M_t} \mathcal{W}^{-1} + J_t)_{0 \leq t \leq 1}$ is an essentially self-adjoint quantum semimartingale satisfying the quantum Duhamel formula, and hence the quantum Ito formula. The equivalent result for the sum of a Brownian and Poisson martingale, provided that the sum is essentially self-adjoint with core $\mathsf{E}_{\mathrm{lb}}$, is also proved.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography