Academic literature on the topic 'Calcul probabilité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul probabilité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Calcul probabilité"

1

Bardet, Ivan. "Émergence de dynamiques classiques en probabilité quantique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1071/document.

Full text
Abstract:
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence<br>This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
APA, Harvard, Vancouver, ISO, and other styles
2

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Full text
Abstract:
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions<br>In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
APA, Harvard, Vancouver, ISO, and other styles
3

Faix, Marvin. "Conception de machines probabilistes dédiées aux inférences bayésiennes." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM079/document.

Full text
Abstract:
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence<br>The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem
APA, Harvard, Vancouver, ISO, and other styles
4

Cauvin, Maxime. "Prise en compte des incertitudes et calcul de probabilité dans les études de risques liés au sol et au sous-sol." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL108N/document.

Full text
Abstract:
L’analyse des risques liés aux objets rocheux (effondrement ou affaissement de terrain, écroulement de falaise, etc.) s’effectue généralement dans un contexte lourd en incertitudes. Malheureusement, les outils dont dispose aujourd’hui l’expert pour réaliser ses études souffrent de ne pouvoir apporter de solutions suffisamment précises pour réellement saisir ce contexte d’incertitude. Ce mémoire effectue d’abord un retour sur la notion d’incertitude dans les études de risques liés au sol et au sous-sol. Une définition et une typologie détaillée en sont proposées et des outils, issus de la littérature ou développés dans le cadre de la thèse, sont fournis pour permettre un traitement pratique de chacune des classes introduites. L’utilisation des probabilités comme outil d’aide à la prise en compte des incertitudes est ensuite examinée. Une discussion, confrontant les approches fréquentiste et épistémique, est proposée pour évaluer la possibilité et les limites d’une interprétation opérationnelle de résultats probabilistes dans une analyse de risque. Ce travail est principalement destiné à l’expert du terrain réalisant une étude de risque. Ainsi, plusieurs exemples réels (analyse de la stabilité d’une mine de charbon, étude de l’aléa fontis au droit d’une carrière souterraine de gypse, réalisation d’un Plan de Prévention des Risques Miniers) sont proposés pour éclairer les propos, illustrer l’adaptabilité des outils introduits aux méthodologies actuelles, et présenter les avantages concrets que le traitement des incertitudes et le calcul probabiliste peuvent apporter en terme d’aide à la démarche d’expertise et à la communication entre les acteurs de la gestion du risque<br>Analyses of risks related to ground and underground issues (surface collapses, subsidence, rockfalls, etc.) are generally undertaken in a strong context of uncertainty. However, tools that are available for geotechnical expert to carry out his study suffer today from not being able to really seize this context of uncertainty. This work takes firstly stock of the notion of uncertainty in risk analyses. It provides a definition and a typology of uncertainty that can be concretely used by the expert. For each of the defined classes, methods allowing an operational treatment of uncertainties are presented, either extracted from a literature survey or developed in the framework of the Thesis. The use of probabilities as an expertise-help tool is secondly examined. A discussion, which distinguishes between frequentist and epistemic interpretations of probabilities, is proposed to evaluate the benefits and implications that probabilities can have towards the practical elaboration of a risk analysis. This study is mainly dedicated to the field expert in charge of the analysis. Numerous concrete examples (analysis of surface stability above an underground coal mine, sinkhole development analysis over an underground gypsum mine, elaboration of a Mining Risk Prevention Plan) are therefore provided both to present the main results of the work and to illustrate the adaptability of the tools being introduced to the current methodologies of analysis. They also aim at highlighting the fact that the treatment of uncertainties and the use of probabilities in risk analyses can facilitate the process of expertise and allow a better communication between the various actors of risk management
APA, Harvard, Vancouver, ISO, and other styles
5

Osseiran, Ahmad-Chawki. "Contribution à la théorie des probabilités symboliques." Paris 6, 1996. http://www.theses.fr/1996PA066650.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du traitement qualitatif de l'incertain. Pour parvenir à nos fins, nous nous sommes basés sur la théorie des multi-ensembles et la logique multivalente qui offrent un substrat à l'élaboration de la représentation symbolique de l'incertitude à l'aide échelle symbolique finie de degrés de certitude. Dans ce domaine, nous avons proposé un véritable calcul symbolique dans le cadre de la logique multivalente, des opérations usuelles d'addition, de soustraction, de multiplication et de division dans l'intervalle réel 0, 1. Les résultats obtenus nous ont permis l'extension de la théorie des probabilités symboliques en les appliquant aux probabilités conditionnelles, aux probabilités indépendantes et au théorème de Bayes. D'où l'aboutissement à une version purement symbolique du réseau bayésien se basant sur les opérations symboliques et les probabilités conditionnelles symboliques. Enfin, nous avons élaboré un algorithme général bayésien pour les arborescences et un logiciel d'application (SYBANES) illustrant la pertinence des outils proposés. A ce stade, il est donc possible de dire qu'à travers notre travail, nous avons pu contribuer d'une façon efficace à l'évolution de la théorie des probabilités symboliques.
APA, Harvard, Vancouver, ISO, and other styles
6

Arroyo-Contreras, Moisés. "Approche probabiliste du comportement élasto-plastique de structures marines, sous sollicitations aléatoires de houle." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00523059.

Full text
Abstract:
Ce travail porte sur l'analyse de la fiabilité de structures marines de type Jacket, de comportement élastique-parfaitement plastique, vis-à-vis de chargement de houle linéaire stochastique. Les fonctions d'état de sécurité ou de ruine du système mécanique, calculées à l'aide d'une méthode d'analyse de contraintes pas-à-pas, prennent en compte les efforts combinés de flexion et de traction-compression par le flambement (écoulement bi-dimensionnel), dans les éléments de la structure. Les incertitudes des résistances des éléments de la structure sont prises en compte par des lois normales ou log-normales, définies à partir de données statistiques, rapportées par le comité LRFD (sur des facteurs de résistance et de chargement), de la Société Américaine de Génie civil. L'incertitude du chargement de houle est prise en compte par un modèle de houle linéaire stochastique, gaussien stationnaire ergodique. L'approche de la probabilité de ruine globale du système mécanique se fait par deux méthodes: la méthode dite de Premier Ordre, basée sur l'approximation des hyperplans équivalents des intersections ou des unions des régions de ruine du système, et la méthode dite hybride, basée sur la simulation Monte-Carlo. Enfin, deux exemples d'application d'un portique et d'une structure marine installée en eau moyennement profonde, mettent en évidence les avantages de l'utilisation du modèle d'efforts combinés de flexion et de traction-compression, y compris le flambement, proposé dans ce travail. Les modèles proposés dans ce travail, d'application aux structures marines, mais de portée beaucoup plus grande, permettent d'étudier la variation de la probabilité de ruine globale d'un système mécanique, en fonction des critères adoptés dans sa conception. Ils permettent également d'établir des critères pour définir les niveaux de sécurité désirables.
APA, Harvard, Vancouver, ISO, and other styles
7

Ben, Ghorbal Anis. "Fondements algébriques des probabilités quantiques et calcul stochastique sur l'espace de Fock booléen." Nancy 1, 2001. http://www.theses.fr/2001NAN10009.

Full text
Abstract:
Ce mémoire est divisé en trois grandes parties. La première est consacrée essentiellement à l'étude des produits en probabilités quantiques. Nous donnons une classification complète à l'aide du produit universel défini par un ensemble d'axiomes canoniques dans les différentes catégories d'algèbres associatives. Ceci nous permet aussi de définir la notion d'indépendance stochastique non-commutative. En particulier nous démontrons que les seuls produits sont les produits tensoriel (classique), libre et booléen. La seconde partie est motivée directement par la première. Elle est consacrée à l'étude des processus de Lévy sur les groupes duaux de D. Voiculescu. Ce nouveau concept généralise la théorie des processus de Lévy sur les algèbres de Hopf (groupes quantiques) où la seule notion d'indépendance est donnée par le produit tensoriel. Ce principe nous fournit l'outil principal pour montrer qu'un processus de Lévy sur un groupe dual est déterminé par son générateur. Comme application directe, nous donnons une réalisation des processus de Lévy additifs sur les trois espaces de Fock (bosonique, libre et booléen). La troisième partie est consacrée au développement du calcul stochastique quantique sur l'espace de Fock booléen. En particulier nous introduisons l'intégrale stochastique et nous donnons une formule d'Itô quantique. Nous construisons aussi les solutions de l'équation différentielle stochastique quantique au sens de R. L. Hudson et K. R. Parthasarathy. Finalement nous construisons les dilatations des semi-groupes complètement positifs.
APA, Harvard, Vancouver, ISO, and other styles
8

Averous, Jean, and Michel Meste. "Famille de boules centrales d'une probabilité sur un espace de Banach. Application aux ordres et mesures de dissymétrie et de kurtosis." Toulouse 3, 1992. http://www.theses.fr/1992TOU30017.

Full text
Abstract:
Pour une probabilite sur un espace de banach, les auteurs introduisent une famille de boules centrales, indicee par leur rayon; ce sont les boules fermees dont le centre minimise un critere qui, si le rayon est nul, est celui qui sert a definir la mediane spatiale. Les proprietes de cette mediane ont ete etudiees par kemperman en 1987. Il est montre que ces proprietes, en particulier celles de robustesse et de convergence, sont conservees par les boules centrales. Les proprietes plus specifiques des fonctions de centrage et de dispersion qui associent au rayon d'une boule centrale respectivement le centre et la probabilite de cette boule, sont detaillees. Ces proprietes sont utilisees pour definir, d'une part une dissymetrie par rapport a la mediane dans la direction d'un cone convexe ainsi qu'un ordre et des mesures pour ce concept, d'autre part une fonction de kurtosis sur laquelle les auteurs fondent un ordre ne necessitant pas la symetrie centrale des lois. Des exemples de ces fonctions sont donnes pour des lois usuelles. Centre, dispersion, dissymetrie et kurtosis sont ainsi analyses de facon coherente avec la norme. Dans le cas particulier de lois reelles ils generalisent les m-parametres de centrage par des intervalles centraux optimaux, et definissent pour la s-moyenne un poids des queues coherent avec ce centre. Ce dernier concept leur sert a definir, pour toute loi de s-moyenne finie, une fonction de repartition de loi continue unimodale dont l'analyse exploratoire par des methodes fondees sur les quantiles fournit une description de la loi initiale au sens s-moyenne. Ce concept leur sert egalement a unifier la classification des familles nonparametriques de lois de duree de vie et a preciser leur structure hierarchique
APA, Harvard, Vancouver, ISO, and other styles
9

Baili, Hana. "Caractérisation statistique de mesures dynamiques continues à partir d'un modèle de connaissance." Paris 11, 2002. http://www.theses.fr/2002PA112077.

Full text
Abstract:
Mon sujet de recherche est un problème de mesure indirecte: une grandeur d'intérêt à observer mais ne pouvant l'être directement par certains capteurs. On convient d'appeler cette grandeur mesure. Le terme dynamique sous-entend l'évolution de la mesure dans le temps, d'une part, et d'autre part signifie que le modèle comporte au moins une relation dynamique. Le modèle est dit de connaissance dans le sens où tout ce que l'on manipule a une signification physique. Les quantités du modèle, qui une fois fixées, déterminent de façon unique les autres, sont dites: les données du modèle. Malheureusement, souvent certaines données sont inconnues car aléatoires, ou déterministes mais le modèle est incomplet. Dans ce cas, l'information que l'on peut former à propos d'une inconnue est soit ses deux premiers moments si elle est aléatoire, soit un encadrement de sa valeur si elle est déterministe. Notre but est alors de propager cette information à la mesure. L'approche que nous avons adoptée pour ce faire est probabiliste; c'est la "caractérisation statistique" du titre. En effet, un premier prérequis consiste à transformer le modèle de départ en une équation différentielle stochastique (e. D. S. ) telle que: estimer la densité de probabilité du processus qu'elle détermine accomplisse l'ultime mesure. Le chapitre 2 donne la théorie, base de la modélisation; il s'agit du calcul stochastique selon McShane. Le chapitre 3 décrit notre approche de modélisation, en général, puis à la lumière d'une collection d'applications. Nous avons distribué nos méthodes de caractérisaion statistique sur trois chapitres différents (4, 5 et 6) pour mettre l'accent sur les caractères qui les unient et ceux qui les distinguent les unes des autres<br>In this thesis, we deal with statistical characterization of dynamical continuous measurements within a knowledge-based model. A measurement is any quantity to be observed within a system; we talk about indirect measurement when this quantity cannot be directly given by some sensors. The term dynamic refers to the evolution of the measurement in time. The model is said knowledge-based because it comes from the mathematical traduction of the system physics, as opposed to black-box models. The quantities that when fixed, cause the others to be determined uniquely, are called model's data, such as initial conditions, observations, controls, etc. Often, some of them are unknown because they are random or deterministic but the model comes from an incomplete description of the system. A prior information about some uncertainty can be acquired; it will consist of its average and dispersion, if it is random, or of some set that specifies its values, if it is deterministic. Given the model described below, what's about the measurement? We propose here a probabilistic approach to characterize the measurement; in fact the modelling step, involved at the beginning, consists in transforming the model into a stochastic differential equation (sde) determining a process such that estimating the probability density function (pdf) of this process achieves the ultimate measurement; this is the "statistical characterization". Chapter 3 describes the modelization task in general, using McShane's stochastic calculus as theoretical basis. Chapters 4, 5, and 6 present our methods for estimating the pdf of the (extended) measurement
APA, Harvard, Vancouver, ISO, and other styles
10

Jiang, Li. "Calcul en fatigue des ouvrages métalliques par la mécanique de la rupture (approche probabiliste)." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://pastel.archives-ouvertes.fr/pastel-00569145.

Full text
Abstract:
Cette thèse est une contribution à l'analyse probabiliste des ponts métalliques ou mixtes en fatigue. Dans cette thèse, nous proposons des méthodes originales, pour calculer l'indice de fiabilité ß et évaluer la probabilité de ruine, basées respectivement sur le modèle d'endommagement linéaire de Miner et sur la loi de propagation de fissure de Paris à seuil, qui prennent en compte les aléas quantifiés sur les charges de trafic réel et sur la résistance déduite des essais de fatigue. L'application du théorème central limite permet des calculs analytiques explicites du dommage cumulé. La modélisation de l'avancement de fissure par processus Markovien simplifie les calculs de la distribution de probabilité. Un programme informatique est fait pour calculer l'intégrale J et pour déterminer le facteur d'intensité de contraintes.
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography