To see the other types of publications on this topic, follow the link: Calcolo delle probabilità.

Dissertations / Theses on the topic 'Calcolo delle probabilità'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcolo delle probabilità.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nicolae, Angelica. "Presentazione ipertestuale del Calcolo della probabilità." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4916/.

Full text
Abstract:
Presentazione del lavoro svolto per la realizzazione dell'ipertesto, avente come argomento matematico: il Calcolo della probabilità. L'ipertesto si trova all'indirizzo: http://progettomatematica.dm.unibo.it/Prob2/index.html ed è una continuazione del lavoro svolto durante il tirocinio, che si trova all'indirizzo: http://progettomatematica.dm.unibo.it/ProbElem/index.html
APA, Harvard, Vancouver, ISO, and other styles
2

Dimauro, Giuliana. "Il calcolo delle Probabilità: storia, didattica ed applicazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Find full text
Abstract:
Nella seguente tesi viene fornita un’analisi dello sviluppo del calcolo delle probabilità. Ne primo capitolo è presente un excursus storico che ripercorre l’evoluzione di questa disciplina attraverso i secoli. Segue un capitolo dedicato alla didattica della probabilità con l’analisi di alcune indagini sulla valutazione degli studenti che vengono fatte a livello internazionale e nazionale. Inoltre, è stata condotta un’indagine locale in un Istituto Secondario Superiore. Nel terzo ed ultimo capitolo, si propone un’applicazione concreta del calcolo delle probabilità analizzando alcuni giochi d’azzardo con l’ausilio di software quali Mathematica e Matlab per mettere in luce l’iniquità di tali giochi.
APA, Harvard, Vancouver, ISO, and other styles
3

Cercone, Maria Grazia. "Origini e sviluppi del calcolo delle probabilità ed alcune applicazioni." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/13500/.

Full text
Abstract:
Questa tesi ripercorre l’evoluzione del calcolo delle probabilità attraverso i secoli partendo dalle origini e giungendo al XX secolo, segnato dall’introduzione della teoria sulle Catene di Markov che, fornendo importanti concetti matematici, troverà in seguito applicazione in ambiti diversi tra loro. Il primo capitolo è interamente dedicato ad illustrare l’excursus storico del calcolo delle probabilità; si parte dalle antiche civiltà, dove l’idea di probabilità sorse intorno a questioni riguardanti la vita comune e il gioco d’azzardo, per arrivare al XX secolo in cui si formarono le tre scuole di pensiero: frequentista, soggettivista e assiomatica. Il secondo capitolo esamina la figura di A. A. Markov e l’importante contributo apportato al calcolo delle probabilità attraverso l’introduzione della teoria delle Catene di Markov. Si trattano poi importanti applicazioni della stessa quali l’Algoritmo di Metropolis-Hastings, il Campionamento di Gibbs e la procedura di Simulated Annealing. Il terzo capitolo analizza un’ulteriore applicazione della teoria markoviana: l’algoritmo di link analysis ranking, noto come algoritmo PageRank, alla base del motore di ricerca Google.
APA, Harvard, Vancouver, ISO, and other styles
4

Stuppazzini, Simone. "Il Calcolo delle Probabilità - Sperimentazione di un approccio assiomatico nei Licei Scientifici." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19247/.

Full text
Abstract:
Questa tesi nasce dallo sviluppo di un seminario sull'insegnamento del Calcolo delle Probabilità nelle scuole secondarie, di primo e secondo grado, proposto dal Piano Lauree Scientifiche dell'Università di Bologna nel settembre 2018, nella sede di Rimini, e da una tesi magistrale del Dipartimento di Matematica della stessa università. Obbiettivi della tesi: scrivere il materiale didattico relativo a un'intera unità didattica, che sia utilizzabile dai docenti come parte del testo scolastico; mettere in pratica i modelli e le tesi prodotti da una buona ricerca in didattica della matematica; infine confrontare questi ultimi con un modello attualmente utilizzato da molti libri di testo. Da questi obiettivi nasce la sperimentazione in classe di un'unità didattica dedicata al Calcolo delle Probabilità, all'interno di un'esperienza di tirocinio presso il Liceo Scientifico M.Morandi di Finale Emilia (MO). Precisamente in tre classi quarte di indirizzo scientifico sperimentale. Il materiale didattico originale proposto in questa sede, e il modo in cui è presentato il contenuto, rappresentano il risultato principale di questa tesi. In esso si espongono le più importanti proprietà del Calcolo delle Probabilità su spazi finiti, attraverso l'esposizione assiomatica di Kolmogorov, semplificata e adattata per rientrare nel contesto scolastico a cui si fa riferimento. Seguono i risultati sulla sperimentazione in classe, attraverso le impressioni degli studenti, degli insegnanti e le valutazioni delle verifiche. Infine, attraverso quest'ultime, si cerca di valutare il modello sperimentale proposto, confrontandolo con uno degli attuali modelli utilizzati da molti libri di testo. L'esperienza di docenza all'interno di una classe è parte integrante dell'attività di tesi, contribuisce alla crescita professionale, culturale e personale del laureando, e attraverso essa si ha modo di affrontare direttamente la ricerca in didattica della matematica e i problemi relativi all'insegnamento.
APA, Harvard, Vancouver, ISO, and other styles
5

Piccolo, Andrea <1964&gt. "Calcolo delle Probabilità. Interpretazioni e significati tra scienza e scommessa su Dio." Master's Degree Thesis, Università Ca' Foscari Venezia, 2021. http://hdl.handle.net/10579/18696.

Full text
Abstract:
Dalle origini del calcolo delle probabilità, le varie interpretazioni e approcci si confrontano con, o evitano il, significato della probabilità. La diffusione della statistica in ogni ambito umano, economico e sociale, ha reso predominante una certa impostazione e un certo significato di "probabilità". Esistono però altri significati che è importante non trascurare per riflettere correttamente su un tema così centrale nel pensiero contemporaneo
APA, Harvard, Vancouver, ISO, and other styles
6

Marverti, Luca. "Analisi di metodi approssimati per il calcolo della probabilità di collisione tra satelliti." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25901/.

Full text
Abstract:
Questa tesi tratta lo studio di approssimazioni analitiche all'integrale della probabilità di collisione tra satelliti, prendendo in considerazione due diversi metodi di calcolo: l'algoritmo Fortran AS 106 e il metodo sviluppato da Serra. Nell'elaborato vengono analizzati i risultati ottenuti dai due algoritmi, studiati ed implementati su Matlab, principalmente sotto tre parametri: tempo di computazione, precisione di calcolo e numero di operazioni effettuate, confrontandoli con il riferimento fornito dall'integrazione numerica dell'integrale di collisione. I risultati ottenuti dell'analisi portano a concludere che entrambi i metodi analitici sono più efficienti rispetto al metodo integrale; in particolar modo l'algoritmo sviluppato da Serra è valutabile come il migliore tra quelli studiati.
APA, Harvard, Vancouver, ISO, and other styles
7

Feletti, Chiara. "Origini del calcolo delle probabilità e applicazioni alla valutazione del prezzo equo di un guadagno incerto." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6919/.

Full text
Abstract:
Sfruttando un approccio di tipo ordinale all'utilità è possibile semplificare notevolmente la teoria dell'asset prices. Rappresentando le distribuzioni di probabilità attraverso i suoi momenti (non soffermandoci solo ai primi due), si riesce infatti ad ottenere una miglior valutazione dei singoli assets, portando ad un effettivo miglioramento delle performance del portafoglio.
APA, Harvard, Vancouver, ISO, and other styles
8

Conte, Roberta Mariassunta. "Sulla dimostrazione probabilistica del teorema di Hormander." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/9446/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kachigar, Ghazal. "Questions de localisabilité pour le calcul distribué." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0339/document.

Full text
Abstract:
Cette thèse suit un plan à deux parties. Le point de départ en est la notion de résistance à la localisation, qui est importante en calcul distribué quantique.Dans la première partie, qui est plutôt théorique, nous retraçons l’historique de certaines notions et résultats en information quantique et en calcul distribué, plus précisément le phénomène d’intrication et la condition non-signalling en information quantique et le modèle LOCAL et le problème de coloration en calcul distribué. Ensuite, nous évoquons le modèle φ-LOCAL, développé en 2009 comme adaptation de la condition non-signalling au modèle LOCAL dans le but d’étudier l’existence d’algorithmes distribués quantiques. Finalement, nous soulignons quelques limites du modèle φ-LOCAL à l’aide des notions de consistance globale et de consistance locale, et nous présentons une version plus adéquate de ce modèle.La deuxième partie comporte les principaux résultats techniques obtenus au cours de cette thèse dans le domaine de la théorie des probabilités. Nous introduisons la notion de k-localisabilité qui est une traduction probabiliste du modèle φ-LOCAL. Nous montrons en quoi cette notion est proche, mais plus faible, que la notion de k-dépendance, largement étudiée dans la littérature probabiliste. Nous évoquons des résultats récents autour de la coloration 1-dépendante du chemin qui permettent de conclure au sujet de la coloration 1-localisable du chemin : elle est possible dès qu’il y a plus de quatre couleurs. Dans la suite, nous traitons la question de la possibilité de la coloration 1-localisable du chemin à l’aide de trois couleurs : nous verrons qu’elle n’est pas possible. Pour répondre à cette question, nous avons eu recours à la programmation linéaire et à la combinatoire : en particulier, nous démontrons un théorème qui donne la solution explicite d’un programme linéaire ayant une forme particulière, ainsi qu’une formule pour les nombres de Catalan
This thesis is divided in two parts. Its starting point is the concept of resistance to localisation, an important concept in distributed quantum computing.In the first, theoretical part of this thesis, we go over the history of certain concepts and results in quantum information theory and distributed computing, such as the phenomenon of entanglement and the non-signalling condition in the first domain, and the LOCAL model and the colouring problem in the second domain. We then focus on the φ-LOCAL model, whose goal is to study the possibility of quantum distributed algorithms, and which was developedin 2009 by adapting the non-signalling condition to the LOCAL model. We introduce the concepts of global and local consistency in order to emphasise some shortcomings of this model. Finally, we present a more adequate version ofthe φ-LOCAL model.The second part of this thesis contains our major technical results in probability theory. We define the concept of k-localisability which is a probabilistic translation of the φ-LOCAL model. We show that this concept is close to but weaker than the concept of k-dependence which is well-studied in the probabilistic literature. We mention recent results concerning 1-dependent colouring of the path graph and the conclusion they allow us to reach with regards to 1-localisable colouring of the path graph : that it is possible with four or more colours. The rest of this part is dedicated to answering the question of the possibility of 1-localisable colouring of the path graph using three colours which we will show to be impossible. In answering this question we have made use of methods in linear programming and combinatorics. In particular, we prove a theorem on the explicit solution of a linear programming problem having a certain form, and a formula for the Catalan numbers
APA, Harvard, Vancouver, ISO, and other styles
10

Touati, Karim. "Validation probabiliste d'un code de calcul numérique : application aux calculs des fondations superficielles avec une loi élastoplastique." Châtenay-Malabry, Ecole centrale de Paris, 1994. http://www.theses.fr/1994ECAP0344.

Full text
Abstract:
Les progrès récents des techniques expérimentales, de la modélisation rhéologique, des outils informatiques et de calculs, dans le domaine de la mécanique des sols, ont abouti à la réalisation de codes de calculs numériques utilisant des modèles de comportement sophistiques capables de décrire les aspects les plus complexes de la rhéologie du matériau. L'utilisation de ces codes de calculs dans le dimensionnement des grands ouvrages de géotechnique reste fragmentaire en raison des lacunes persistant dans la définition de leur domaine d'application et dans leur validation. Le présent travail a été réalisé dans le cadre du groupe validation des codes du gréco-géomatériaux, au sein du projet erreur de code. Ce travail a pour objectif de développer une méthodologie d'estimation de l'erreur de code pour assurer la prise en compte des incertitudes, erreurs et autres aléas dans le processus de validation des codes. Il comprend huit chapitres qui ont été regroupés en trois parties. La première partie, qui comprend trois chapitres, fixe le cadre général de l'étude, présente la methodologie générale de validation, recense les différents essais et outils informatiques développés pour sa mise en application (dossiers de validation) et expose la méthodologie que nous avons conçue pour une validation probabiliste des codes de calcul. La deuxième partie est consacrée à la valorisation de l'information en géotechnique pour sa prise en compte dans les modélisations. Elle présente l'outil complémentaire nécessaire à la validation de la modélisation numérique en géotechnique, outil qui consiste en une banque de données rhéologiques pour les sols, Modelisol, en partie conçue et développée dans le cadre de ce travail. La troisième partie rassemble, dans le sixième chapitre, l'ensemble des données et des outils propres à cette étude ainsi que leurs traitements. On présente dans les deux derniers chapitres, la mise en œuvre complète de la méthodologie erreur de code: les résultats de la modélisation du comportement du sol sous chemins de sollicitations homogènes réalisés au laboratoire, les résultats des calculs d'enfoncement de fondations superficielles en centrifugeuse, comparés à l'ensemble des résultats expérimentaux et enfin les différents traitements realisés pour estimer la dispersion des résultats, évaluer l'influence des aléas experimentaux et bâtir des modèles de prédiction des différents écarts entre résultats expérimentaux et résultats de calculs définis par cette méthodologie
APA, Harvard, Vancouver, ISO, and other styles
11

Faix, Marvin. "Conception de machines probabilistes dédiées aux inférences bayésiennes." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM079/document.

Full text
Abstract:
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence
The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem
APA, Harvard, Vancouver, ISO, and other styles
12

Cauvin, Maxime. "Prise en compte des incertitudes et calcul de probabilité dans les études de risques liés au sol et au sous-sol." Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL108N/document.

Full text
Abstract:
L’analyse des risques liés aux objets rocheux (effondrement ou affaissement de terrain, écroulement de falaise, etc.) s’effectue généralement dans un contexte lourd en incertitudes. Malheureusement, les outils dont dispose aujourd’hui l’expert pour réaliser ses études souffrent de ne pouvoir apporter de solutions suffisamment précises pour réellement saisir ce contexte d’incertitude. Ce mémoire effectue d’abord un retour sur la notion d’incertitude dans les études de risques liés au sol et au sous-sol. Une définition et une typologie détaillée en sont proposées et des outils, issus de la littérature ou développés dans le cadre de la thèse, sont fournis pour permettre un traitement pratique de chacune des classes introduites. L’utilisation des probabilités comme outil d’aide à la prise en compte des incertitudes est ensuite examinée. Une discussion, confrontant les approches fréquentiste et épistémique, est proposée pour évaluer la possibilité et les limites d’une interprétation opérationnelle de résultats probabilistes dans une analyse de risque. Ce travail est principalement destiné à l’expert du terrain réalisant une étude de risque. Ainsi, plusieurs exemples réels (analyse de la stabilité d’une mine de charbon, étude de l’aléa fontis au droit d’une carrière souterraine de gypse, réalisation d’un Plan de Prévention des Risques Miniers) sont proposés pour éclairer les propos, illustrer l’adaptabilité des outils introduits aux méthodologies actuelles, et présenter les avantages concrets que le traitement des incertitudes et le calcul probabiliste peuvent apporter en terme d’aide à la démarche d’expertise et à la communication entre les acteurs de la gestion du risque
Analyses of risks related to ground and underground issues (surface collapses, subsidence, rockfalls, etc.) are generally undertaken in a strong context of uncertainty. However, tools that are available for geotechnical expert to carry out his study suffer today from not being able to really seize this context of uncertainty. This work takes firstly stock of the notion of uncertainty in risk analyses. It provides a definition and a typology of uncertainty that can be concretely used by the expert. For each of the defined classes, methods allowing an operational treatment of uncertainties are presented, either extracted from a literature survey or developed in the framework of the Thesis. The use of probabilities as an expertise-help tool is secondly examined. A discussion, which distinguishes between frequentist and epistemic interpretations of probabilities, is proposed to evaluate the benefits and implications that probabilities can have towards the practical elaboration of a risk analysis. This study is mainly dedicated to the field expert in charge of the analysis. Numerous concrete examples (analysis of surface stability above an underground coal mine, sinkhole development analysis over an underground gypsum mine, elaboration of a Mining Risk Prevention Plan) are therefore provided both to present the main results of the work and to illustrate the adaptability of the tools being introduced to the current methodologies of analysis. They also aim at highlighting the fact that the treatment of uncertainties and the use of probabilities in risk analyses can facilitate the process of expertise and allow a better communication between the various actors of risk management
APA, Harvard, Vancouver, ISO, and other styles
13

Osseiran, Ahmad-Chawki. "Contribution à la théorie des probabilités symboliques." Paris 6, 1996. http://www.theses.fr/1996PA066650.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du traitement qualitatif de l'incertain. Pour parvenir à nos fins, nous nous sommes basés sur la théorie des multi-ensembles et la logique multivalente qui offrent un substrat à l'élaboration de la représentation symbolique de l'incertitude à l'aide échelle symbolique finie de degrés de certitude. Dans ce domaine, nous avons proposé un véritable calcul symbolique dans le cadre de la logique multivalente, des opérations usuelles d'addition, de soustraction, de multiplication et de division dans l'intervalle réel 0, 1. Les résultats obtenus nous ont permis l'extension de la théorie des probabilités symboliques en les appliquant aux probabilités conditionnelles, aux probabilités indépendantes et au théorème de Bayes. D'où l'aboutissement à une version purement symbolique du réseau bayésien se basant sur les opérations symboliques et les probabilités conditionnelles symboliques. Enfin, nous avons élaboré un algorithme général bayésien pour les arborescences et un logiciel d'application (SYBANES) illustrant la pertinence des outils proposés. A ce stade, il est donc possible de dire qu'à travers notre travail, nous avons pu contribuer d'une façon efficace à l'évolution de la théorie des probabilités symboliques.
APA, Harvard, Vancouver, ISO, and other styles
14

Cabanal-Duvillard, Thierry. "Probabilités libres et calcul stochastique : application aux grandes matrices aléatoires." Paris 6, 1999. http://www.theses.fr/1999PA066594.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Gao, Yingzhong. "Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://pastel.archives-ouvertes.fr/pastel-00569129.

Full text
Abstract:
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
APA, Harvard, Vancouver, ISO, and other styles
16

Xuefeng, Wu. "Modélisation numérique de la fissuration du béton à partir d'une approche probabiliste." Marne-la-vallée, ENPC, 1991. http://www.theses.fr/1991ENPC9118.

Full text
Abstract:
Le but de ce travail est d'élaborer une modélisation numérique de la fissuration du béton en tenant compte de l'heterogeneite du matériau. On modélise de manière explicite cette heterogeneite vis-à-vis de la constitution et de l'apparition des fissures par des valeurs aléatoires, et décrit les micro- et macro fissures comme des discontinuités cinématiques. On aboutit a une modélisation, que l'on espère, objective donnant des résultats qui soient peu dépendant du maillage adopte. Ce modèle nous permet de décrire plus pertinemment le processus de fissuration du béton et de donner des informations précises concernant l'ouverture et la position des fissures, ce qui intéresse les ingénieurs du génie civil pour faire un diagnostic de l'état de l'ouvrage endommage. Les résultats numériques obtenus couvrent le domaine des structures en béton, béton arme et béton de fibres. Une grande série d'essais de traction directe a été réalisée sur trois types de bétons pour déterminer les fonctions de distribution de la résistance à la traction et du module d'young en fonction du volume de matériau. Cette étude nous a permis de proposer des expressions analytiques assez générales qui tentent d'accéder aux fonctions de distribution des résistances à la traction, a partir de la résistance en compression, pour n'importe quel type de béton
APA, Harvard, Vancouver, ISO, and other styles
17

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions génomiques conservées." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00377445.

Full text
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence.
Un aspect important de notre démarche est le fait de prendre en compte l'existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l'ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d'une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d'une permutation signée aléatoire. Nous avons utilisé la technique ``Markov chain imbedding'' pour obtenir cette distribution en terme d'un produit de matrices de transition d'une certaine chaîne de Markov finie. La connaissance de cette
distribution fournit par la suite une très bonne approximation pour la distribution de la distance d'inversion.
APA, Harvard, Vancouver, ISO, and other styles
18

Grusea, Simona. "Applications du calcul des probabilités à la recherche de régions genomiques conservées." Aix-Marseille 1, 2008. http://www.theses.fr/2008AIX11067.

Full text
Abstract:
Cette thèse se concentre sur quelques sujets de probabilités et statistique liés à la génomique comparative. Dans la première partie nous présentons une approximation de Poisson composée pour calculer des probabilités impliquées dans des tests statistiques pour la significativité des régions génomiques conservées trouvées par une approche de type région de référence. Un aspect important de notre démarche est le fait de prendre en compte l’existence des familles multigéniques. Dans la deuxième partie nous proposons trois mesures, basées sur la distance de transposition dans le groupe symétrique, pour quantifier l'exceptionalité de l’ordre des gènes dans des régions génomiques conservées. Nous avons obtenu des expressions analytiques pour leur distribution dans le cas d’une permutation aléatoire. Dans la troisième partie nous avons étudié la distribution du nombre de cycles dans le graphe des points de rupture d’une permutation signée aléatoire. Nous avons utilisé la technique “Markov chain imbedding” pour obtenir cette distribution en terme d’un produit de matrices de transition d’une certaine chaîne de Markov finie. La connaissance de cette distribution fournit par la suite une très bonne approximation pour la distribution de la distance d’inversion
This thesis is concentrated on some probability and statistical issues linked to genomic comparison. In the first part we present a compound Poisson approximation for computing probabilities involved in significance tests for conserved genomic regions found by the reference-region approach. An important aspect of our computations is the fact that we are taking into account the existence of multigene families. In the second part we propose three measures, based on the transposition distance in the symmetric group, for quantifying the exceptionality of the gene order in conserved genomic regions. We obtain analytic expressions for their distribution in the case of a random permutation. In the third part of the thesis we study the distribution of the number of cycles in the breakpoint graph of a random signed permutation. We use the Markov chain imbedding technique to obtain this distribution in terms of a product of transition matrices of a certain finite Markov chain. The knowledge of this distribution provides a very good approximation for the distribution of the reversal distance
APA, Harvard, Vancouver, ISO, and other styles
19

Houissa, Asma. "Les algorithmes d’apprentissage pour l’aide au stationnement urbain." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV001.

Full text
Abstract:
L’objectif de cette thèse est de développer, d’intégrer et de tester une nouvelle approche algorithmique d’aide au stationnement dans les centres urbains. Considérons différents types d’infrastructures déployées allant de la détection des entrées/sorties des véhicules jusqu'à la variation dans le temps du nombre de places de stationnement disponibles dans chaque portion de rue, nous montrons qu’il est possible de proposer une méthode efficace qui détermine un itinéraire qui minimise l’espérance de temps pour trouver une place de stationnement disponible et de prédire la disponibilité des placesde stationnement.Pour cela, la zone urbaine choisie sera donc considérée comme un ensemble de ressources de stationnement (segments de rues).Nous modélisons d’abord cette zone urbaine par un graphe où les sommets désignent les carrefours et les arcs représentent les portions de rues. Les paramètres essentiels pour notre modèle de réseau urbain sont la capacité de stationnement et le temps de parcours des portions de rue.L’originalité et l’aspect innovant de notre approche s’appuient sur deux principes.Le premier principe concerne le guidage comme une ressource : il ne s’agit pas de guider vers une place libre mais de proposer un parcours qui optimise l’espérance de temps de trouver une telle place. Pour cela nous déterminons dans une zone centrée sur une destination donnée, le parcours à effectuer par un véhicule pour minimiser son espérance de temps de trouver une place destationnement le plus rapidement possible.Ainsi nous avons mis en œuvre un algorithme d’apprentissage par renforcement basée sur la méthode LRI (Linear Reward Inaction) et la méthode Monte Carlo pour minimiser l’espérance de temps de trouver une place de stationnement en zone urbaine.Nous avons comparé cet algorithme avec une approche globale basée sur l’évaluation arborescente à profondeur bornée.Le second principe repose sur la prédiction des places de stationnement disponibles par périodes de temps homogènes où on ne s’intéresse pas à une place de stationnement en temps réel mais aux places de stationnement par zones. Il s’agit alors pour le système de pouvoir prédire le potentiel de places libres dans chacune des ressources pour les prochaines périodes. On ne vise donc pas ici la prédiction de la disponibilité de chaque place ; chaque ressource sera considérée comme une zone de stockage dont la disponibilité sera établie en grande partie en fonction des flux d’entrée et de sortie de la portion. Pour ce principe, nous avons donc déterminé par algorithmes de calculs et d’apprentissages la probabilité qu’il y ait au moins une place libre pour stationner dans un tronçon de rue pour un créneau de temps donné. Les principales données nécessaires pour effectuer ces calculs sont les séries temporelles d’entrée sortie de chaque véhicule aux intersections des rues et les variations des places de stationnement au cours du temps.Nous avons évalué les performances de notre approche par simulations sur des données générées aléatoirement et des données réelles obtenues sur un quartier de Versailles
The objective of this thesis is to develop, to integrate and to test a new algorithmic approach to help parking in urban centers.Given the different types of deployed infrastructure : from input-output detection of vehicles to time variation of the number of available places within each street segment, we propose an efficient method to determine an itinerary that minimize the time expectation to find an available place and also to predict the availability of the parking places.We have chosen an urban area and we have considered it as a set of parking resources called street segments. More exactly, this urban area is considered as a graph where the vertexes represent the crossroads and the arcs represent the street segments. The essential parameters of our urban area model are the parking capacity and the time crossing of each street segment. The originality and the innovation of our approach are based on two principles.The first one is the guidance as a resource, i.e., it means that the proposed itinerary is not the one that lead to an available parking place but rather the one that minimized the time expectation to find an available parking place. In order to achieve that we determine, in a an area centered on a given destination, the itinerary to follow by the vehicle in order minimize its time expectation to find an available parking place as quickly aspossible.We have designed and realized a reinforcement learning algorithm based on the LRI method (Linear Reward Inaction) and a Monte Carlo method to minimize the time expectation to find an available parking place in the urban area. We have compared this algorithm to a global approach based on tree evaluation with bounded depth. The second principle is based on the prediction of the parking places by homogeneous time period where we are not interestedon a parking place in real time but rather on the parking places byarea. In other terms, the system predict the potential available parkingplaces by resource for the next time periods. Thus, we don’t aim to predict the availability of each parking place, i.e., each resource is considered as stock area and its availability is assessed in major part in function of the street segment input-output flow. For this principle, we have determined by a learning algorithm the probability that there is at least one available parking place in a street segment within a given time. The major data needed to compute this probability are the time series of input-output of each vehicle in street intersections, and the variation of the available parking places through the time.We have evaluated the performance of this approach by simulation based on random generated data and on real data of a district in Versailles
APA, Harvard, Vancouver, ISO, and other styles
20

Ben, Ghorbal Anis. "Fondements algébriques des probabilités quantiques et calcul stochastique sur l'espace de Fock booléen." Nancy 1, 2001. http://www.theses.fr/2001NAN10009.

Full text
Abstract:
Ce mémoire est divisé en trois grandes parties. La première est consacrée essentiellement à l'étude des produits en probabilités quantiques. Nous donnons une classification complète à l'aide du produit universel défini par un ensemble d'axiomes canoniques dans les différentes catégories d'algèbres associatives. Ceci nous permet aussi de définir la notion d'indépendance stochastique non-commutative. En particulier nous démontrons que les seuls produits sont les produits tensoriel (classique), libre et booléen. La seconde partie est motivée directement par la première. Elle est consacrée à l'étude des processus de Lévy sur les groupes duaux de D. Voiculescu. Ce nouveau concept généralise la théorie des processus de Lévy sur les algèbres de Hopf (groupes quantiques) où la seule notion d'indépendance est donnée par le produit tensoriel. Ce principe nous fournit l'outil principal pour montrer qu'un processus de Lévy sur un groupe dual est déterminé par son générateur. Comme application directe, nous donnons une réalisation des processus de Lévy additifs sur les trois espaces de Fock (bosonique, libre et booléen). La troisième partie est consacrée au développement du calcul stochastique quantique sur l'espace de Fock booléen. En particulier nous introduisons l'intégrale stochastique et nous donnons une formule d'Itô quantique. Nous construisons aussi les solutions de l'équation différentielle stochastique quantique au sens de R. L. Hudson et K. R. Parthasarathy. Finalement nous construisons les dilatations des semi-groupes complètement positifs.
APA, Harvard, Vancouver, ISO, and other styles
21

Arroyo-Contreras, Moises. "Approche probabiliste du comportement élasto-plastique de structures marines, sous sollicitations aléatoires de houles." Marne-la-vallée, ENPC, 1989. http://www.theses.fr/1989ENPC8904.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Jiang, Li. "Calcul en fatigue des ouvrages métalliques par la mécanique de la rupture (approche probabiliste)." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1994. http://pastel.archives-ouvertes.fr/pastel-00569145.

Full text
Abstract:
Cette thèse est une contribution à l'analyse probabiliste des ponts métalliques ou mixtes en fatigue. Dans cette thèse, nous proposons des méthodes originales, pour calculer l'indice de fiabilité ß et évaluer la probabilité de ruine, basées respectivement sur le modèle d'endommagement linéaire de Miner et sur la loi de propagation de fissure de Paris à seuil, qui prennent en compte les aléas quantifiés sur les charges de trafic réel et sur la résistance déduite des essais de fatigue. L'application du théorème central limite permet des calculs analytiques explicites du dommage cumulé. La modélisation de l'avancement de fissure par processus Markovien simplifie les calculs de la distribution de probabilité. Un programme informatique est fait pour calculer l'intégrale J et pour déterminer le facteur d'intensité de contraintes.
APA, Harvard, Vancouver, ISO, and other styles
23

Callens, Stéphane. "La valeur pratique du calcul des probabilités selon Émile Borel : les maîtres de l'erreur." Paris, EHESS, 1994. http://www.theses.fr/1994EHES0027.

Full text
Abstract:
L'immense succes desapproches statistiques et probabilitaires fait encore mystere. Cependant, un reexamen historique de l'oeuvre du probabiliste emile borel et de quelques uns de ses predecesseurs permet de se rendre compte des deplacements operes par la probabilisation massive des sciences depuis la physique mathematique du dix-neuvieme siecle. Il faut d'abord y voir une promotion de la precision, compris non pas tellement comme l'equipement instrumental d'une procedure d'acces a la verite, mais plutot comme l'autonomisation des procedex analyticonumeriques par rapport aux procedes algebrico-logiques. La precision comme exigence dans la connaissance du monde naturel ou social ouvre un espace d'ajustement des hommes au monde, un espace degage en particulier pour les approches statistico-probabilitaires. Plus encore, il faut voir dans emile borel l'achevement d'une reforme complete de la pensee de la mesure. La notion de mesure comprenait de vieilles articulations entre la proportion, l'harminie, l'exces. Cellesci se voient transformees pour faire place a une nouvelle mesure, libre dans sa divertist, epuree axiomatiquement, et efficace dans l'instauration d'un rapport ajuste au monde naturel et social
The hu ge success of statistical and probabilistical approaches is still a mystery. Ne vertheless, a new historical look at the work of probabilist emile borel and of some of his predecessors, allows us to realize the shifts operated by the massive probabilisation of sciences since the mathematical physics of the nineteenth century. One should first see in it a promotion of precision, not so much as the instrumental equipment of a procedure for reaching truth, but rather as the autonomisation of analytico-numerical processes from algebrico-logical processes. Precision as a requirement in the knowledge of the social or natural world opens a space for men to adjust to the world, a space left open especially for the statistical and probabilistic approaches. More so, one should see in the work of emile borel, the completion of a total reform of the idea of measure. The notion of measure included old junctions between proportion, harmony, excess. These have been transformed to leave the way to a new measure, free in its diversity, axiomaticaly purged, and efficient in the establishment of relations fitted to the social and natural world
APA, Harvard, Vancouver, ISO, and other styles
24

Shao, Jun. "Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22771/document.

Full text
Abstract:
Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto". Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel
Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints. To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type. The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context
APA, Harvard, Vancouver, ISO, and other styles
25

Arroyo-Contreras, Moisés. "Approche probabiliste du comportement élasto-plastique de structures marines, sous sollicitations aléatoires de houle." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00523059.

Full text
Abstract:
Ce travail porte sur l'analyse de la fiabilité de structures marines de type Jacket, de comportement élastique-parfaitement plastique, vis-à-vis de chargement de houle linéaire stochastique. Les fonctions d'état de sécurité ou de ruine du système mécanique, calculées à l'aide d'une méthode d'analyse de contraintes pas-à-pas, prennent en compte les efforts combinés de flexion et de traction-compression par le flambement (écoulement bi-dimensionnel), dans les éléments de la structure. Les incertitudes des résistances des éléments de la structure sont prises en compte par des lois normales ou log-normales, définies à partir de données statistiques, rapportées par le comité LRFD (sur des facteurs de résistance et de chargement), de la Société Américaine de Génie civil. L'incertitude du chargement de houle est prise en compte par un modèle de houle linéaire stochastique, gaussien stationnaire ergodique. L'approche de la probabilité de ruine globale du système mécanique se fait par deux méthodes: la méthode dite de Premier Ordre, basée sur l'approximation des hyperplans équivalents des intersections ou des unions des régions de ruine du système, et la méthode dite hybride, basée sur la simulation Monte-Carlo. Enfin, deux exemples d'application d'un portique et d'une structure marine installée en eau moyennement profonde, mettent en évidence les avantages de l'utilisation du modèle d'efforts combinés de flexion et de traction-compression, y compris le flambement, proposé dans ce travail. Les modèles proposés dans ce travail, d'application aux structures marines, mais de portée beaucoup plus grande, permettent d'étudier la variation de la probabilité de ruine globale d'un système mécanique, en fonction des critères adoptés dans sa conception. Ils permettent également d'établir des critères pour définir les niveaux de sécurité désirables.
APA, Harvard, Vancouver, ISO, and other styles
26

Bardet, Ivan. "Émergence de dynamiques classiques en probabilité quantique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1071/document.

Full text
Abstract:
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence
This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
APA, Harvard, Vancouver, ISO, and other styles
27

Genitrini, Antoine. "Expressions booléennes aléatoires : probabilité, complexité et comparaison quantitative de logiques propositionnelles." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0010.

Full text
Abstract:
A travers ma thèse, j'étudie des systèmes propositionnels d'un point de vue probabilité/complexité. Je commence par deux distributions de probabilité sur les fonctions Booléennes, induites par des expressions Booléennes construites avec le connecteur Implication. On donne la structure de la plupart des expressions représentant une fonction donnée, quand le nombre de variables tend vers l'infini. On obtient ainsi l'équivalent asymptotique de la probabilité de la fonction, dépendant de sa complexité. Via la fonction Vrai, on compare quantitativement les logiques classique et intuitionniste de l'implication. Cette comparaison met en évidence certaines propriétés d'une classe d'expressions, qui se retrouvent dans le système propositionnel complet : on compare alors les deux logiques dans ce système. Enfin on étudie les expressions équilibrées des deux systèmes, de l'implication et des deux connecteurs Et et Ou. Dans les deux cas, on exhibe la distribution de probabilité sur les fonctions
In this thesis, I am interested in propositional systems from a probability/complexity point of view. I begin with two probability distributions on Boolean functions, induced by the Boolean expressions built with the Implication connective. I obtain the structure of most of the expressions representing a given function, when the number of variables tends to infinity. This gives the asymptotic equivalent of the probability of the function, depending on its complexity. Via the function True, we compare quantitatively the intuitionistic and classical logics of implication. This comparison highlights some properties of a class of expressions, that are found also in the full propositional system, and we can compare the two logics in this system. Finally we study balanced expressions in the two systems built on implication, or on the two connectors And and Or. In both cases, we exhibit the probability distribution of the functions
APA, Harvard, Vancouver, ISO, and other styles
28

Lalire, Marie. "Développement d'une notation algorithmique pour le calcul quantique." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0113.

Full text
Abstract:
Partant du double constat que d'une part, aucun formalisme ou langage ne permettait d'exprimer complètement et rigoureusement les algorithmes quantiques, et que d'autre part, ces algorithmes et protocoles comportent nécessairement des parties classiques et des parties quantiques, nous avons choisi de concevoir une algèbre de processus qui intègre de façon cohérente les données et les opérations classiques et quantiques. Pour cette algèbre de processus, nous avons défini une sémantique formelle qui respecte les lois de la mécanique quantique et qui permet une coexistence harmonieuse entre les parties quantiques et les parties classiques d'un même processus. Cette sémantique a conduit à la définition d'une équivalence entre processus du langage
No formalism or language existed ta describe completely and rigorously quantum algorithms and protocols. 5ince these algorithms and protocols have necessarily quantum and classical parts, process algebras seemed a good candidate for such a language. 50, in this thesis, we developed a notation, based on process algebras, which provides a homogeneous style for formai descriptions of concurrent and distributed quantum computations comprising bath quantum and classical parts. Based upon an operational semantics that makes sure that quantum abjects, operations and communications operate according ta the postulates of quantum mechanics, an equivalence has been defined among process states considered as having the same behaviour
APA, Harvard, Vancouver, ISO, and other styles
29

GUERIN, Hélène. "Interprétation probabiliste de l'équation de Landau." Phd thesis, Université de Nanterre - Paris X, 2002. http://tel.archives-ouvertes.fr/tel-00002066.

Full text
Abstract:
Cette thèse porte sur une approche probabiliste de l'équation de Landau, aussi appelée équation de Fokker-Planck-Landau. Cette équation aux dérivées partielles a été obtenue comme limite asymptotique d'équations de Boltzmann lorsque les collisions rasantes deviennent prépondérantes dans un gaz. Elle décrit le comportement de la densité de particules ayant la même vitesses au même instant (on considère ici le ca s spatialement homogène). Cette équation a été jusqu'à maintenant étudiées par des méthodes d'analyse, ce travail propose une nouvelle approche. La première partie de la thèse est consacrée à l'étude de l'existence de solution de l'équation de Landau pour des gaz dit de 'potentiels modérément mous'. L'existence de mesures de probabilité solutions est obtenue par des outils du calcul stochastique. Pour des gaz plus particuliers, il y a en fait unicité de la solution et, grâce au calcul de Malliavin, on en déduit l'existence d'une densité solution de l'équation de Landau. L'approche probabiliste permet d'avoir des conditions initiales assez générales. La seconde partie de la thèse donne une interprétation probabiliste du lien entre les équations de Boltzmann et de Landau. Tout d'abord, les résultats d'existence de solutions au sens probabiliste de l'équation de Boltzmann sont étendus aux 'potentiels modérément mous'. Puis, on montre la convergence de ces solutions vers une solution de l'équation de Landau lorsque les collisions deviennent rasantes dans le gaz. Enfin, dans le cas particulier d'un gaz de Maxwell, la convergence ponctuelle des densités est obtenue en utilisant les techniques du calcul de Malliavin. L'approche probabiliste permet une meilleure compréhension du passage Boltzmann - Landau et permet de le simuler à l'aide d'un système de particules. Quelques simulations sont présentées dans cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
30

Yin, Qi. "Prise en compte de la variabilité dans les calculs par éléments finis des structures composites en régime statique ou vibratoire." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2304/document.

Full text
Abstract:
La fabrication des structures composites conduit à une variabilité élevée de ses paramètres mécaniques. La thèse a comme objectif global de développer des méthodes économiques et robustes pour étudier la variabilité de la réponse statique ou dynamique des structures composites modélisées par éléments finis, prenant en compte les propriétés matériaux (modules d'élasticité, coefficients de Poisson, masses volumiques...) et physiques (épaisseurs et orientations des fibres) incertaines. Deux méthodes stochastiques : Certain Generalized Stresses Method (CGSM) et Modal Stability Procedure (MSP), sont développées. La méthode CGSM considère une hypothèse mécanique, les efforts généralisés sont supposés indépendants des paramètres incertains. Elle permet d'évaluer la variabilité de la réponse statique. La méthode MSP, proposée pour étudier la variabilité d'une structure en dynamique, est basée sur l'hypothèse considérant que les modes propres sont peu sensibles aux paramètres incertains. Les hypothèses mécaniques et une unique analyse par éléments finis permettent de construire un méta-modèle exploité dans une simulation de Monte Carlo. Le coût de calcul de ces méthodes stochastiques est donc réduit considérablement. De plus, elles présentent les avantages de ne pas limiter le nombre de paramètres incertains ou le niveau de variabilité d'entrée, et d'être compatibles avec tout code éléments finis standard. Quatre exemples académiques de plaque et coque composite sont traités avec la méthode CGSM, deux exemples académiques de plaque composite carrée et un exemple de plaque raidie sont traités avec la méthode MSP. La variabilité de la réponse statique (déplacement et critère de rupture) et dynamique (fréquence propre), soit la moyenne, l'écart-type, le coefficient de variation et la distribution, est évaluée. Les résultats statistiques obtenus par les méthodes proposées sont comparés avec ceux obtenus par une simulation de Monte Carlo directe, considérée comme la méthode de référence. La comparaison montre que les méthodes développées fournissent des résultats de bonne qualité et qu'elles sont très performantes en temps de calcul. Un indicateur d'erreur est également proposé, permettant de donner une estimation du niveau d'erreur des résultats obtenus par les méthodes CGSM ou MSP par rapport à la méthode de référence, sans réaliser un grand nombre d'analyses par éléments finis
The manufacture of composite structures leads to a high variability of mechanical parameters. The objective of this work is to develop economic and robust methods to study the variability of the static or dynamic response of composite structures modeled by finite elements, taking into account uncertain material (elastic moduli, Poisson's ratios, densities... ) and physical (thicknesses and fiber orientations) properties. Two methods are developed: the Certain Generalized Stresses Method (CGSM) and the Modal Stability Procedure (MSP). The CGSM considers a mechanical assumption, the generalized stresses are assumed to be independant of uncertain parameters. lt allows to evaluate the variability of static response. The MSP, proposed to study the variability of structures in dynamics, is based on the assumption that the modes shapes are insensitive to uncertain parameters. These mechanical assumptions and only one fïnite element analysis allow to construct a metamodel used in a Monte Carlo simulation. As a result, the computational cost is reduced considerably. Moreover, they are not limited by the number of considered parameters or the level of input variability, and are compatible with standard finite element software. Four academic examples of composite plate and shell are treated with the CGSM, while two academic examples of composite square plate and an example of stiffened plate are studied by the MSP. The variability of static response (displacement and failure criterion) and dynamic response (natural frequency), namely mean value, standard deviation, coefficient of variation and distribution, is evaluated. The results obtained by the proposed methods are compared with those obtained by the direct Monte Carlo simulation, considered as the reference method. The comparison shows that the proposed methods provide quite accurate results and highlights their high computational efficiency. An error indicator is also proposed, which allows to provide an estimation of the error level of the results obtained by the CGSM or MSP compared to the reference method, without performing a large number of finite element analyses
APA, Harvard, Vancouver, ISO, and other styles
31

Maire, Sylvain. "Réduction de variance pour l'intégration numérique et pour le calcul critique en transport neutronique." Toulon, 2001. http://www.theses.fr/2001TOUL0013.

Full text
Abstract:
Cette thèse est consacrée aux méthodes de Monte-Carlo et plus particulièrement à la réduction de variance. Dans la première partie, on étudie un algorithme probabiliste, fondée sur une utilisation itérative de la méthode des variables de contrôle, permettant le calcul d'approximations quadratiques. Son utilisation en dimension un pour les fonctions régulières à l'aide de la base de Fourier après périodisation, des bases de polynômes orthogonaux de Legendre et Tchebychef, fournit des estimateurs ayant un ordre de convergence accru pour l'intégration Monte-Carlo. On l'étend ensuite au cadre multidimensionne! par un choix judicieux des fonctions de base, permettant d'atténuer l'effet dimensionnel. La validation numérique est effectuée sur de nombreux exemples et applications. La deuxième partie est consacrée à l'étude du régime critique en transport neutronique. La méthode développée consiste à calculer numériquement la valeur propre principale de l'opérateur de transport neutronique en combi¬nant le développement asymptotique de la solution du problâme d'évolution associé avec le calcul par une méthode de Monte-Carlo de son interprétation probabiliste. Différentes techniques de réduction de varîance sont mises en place dans l'étude de nombreux modèles homogènes et inhomogènes. Une interprétation probabiliste de la valeur propre principale est donnée pour un modèle homogène particulier
This work deals with Monte Carlo methods and is especially devoted to variance-reduction. In the first part, we study a probabilistic algorithm, based on iterated control variates, wich enables the computation of mean-square ap-. Proximations. We obtain Monte Carlo estimators with increased convergence rate for monodimensional regular functions using it with periodized Fourier basis, Legendre and Tchebychef polynomial basis. It is then extended to the multidimensional case in trying to attenuate the dimensional effect by making a good choice of the basis functions. Various numerical examples and applications are studied. The second part deals with criticality in neutron transport theory. We develop a numerical method to compute the principal eigenvalue of the neutron transport operator by combining the Monte-Carlo computation of the solution of the relative Cauchy problem and its formal eigenfunction expansion. Various variance-reduction methods are tested on both homogeneous and inhomo-geaeous models. The stochastic representation of the principal eigenvalue is obtained for a peculiar homogeneous model
APA, Harvard, Vancouver, ISO, and other styles
32

Estrade, Anne. "Calcul stochastique discontinu sur les groupes de lie." Orléans, 1990. http://www.theses.fr/1990ORLE2007.

Full text
Abstract:
On etudie le plongement dans un groupe de lie des semi-martingales discontinues vectorielles et, reciproquement, le relevement des semi-martingales du groupe sur un espace vectoriel. Dans un premier temps, on presente ces procedes: le plongement est realise grace a une exponentielle stochastique, definie soit comme solution d'une equation differentielle stochastique sur le groupe, soit comme une integrale stochastique multiplicative; le relevement en est l'application inverse. Dans un second temps, on met a profit ces outils de transfert pour preciser le comportement des processus du groupe: elements caracteristiques (partie martingale continue et mesure de sauts), processus a accroissements independants, phenomenes lies aux changements absolument continus de probabilites
APA, Harvard, Vancouver, ISO, and other styles
33

Courau, Tanguy. "Application de la théorie des perturbations généralisées aux calculs de cellules utilisant la méthode des probabilités de collision." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ65538.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Roy, Pierre-Nicholas. "Méthodes quantiques pour le calcul de niveaux d'énergie, de probabilités de réactions et de spectres photo-électroniques." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq26729.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Delahay, Thomas. "Développement d'une méthode probabiliste de calcul en fatigue multiaxiale prenant en compte la répartition volumique des contraintes." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12846.

Full text
Abstract:
Cette étude concerne le développement d'une méthode de calcul probabiliste de la résistance des structures à la fatigue multiaxiale à grand nombre de cycles. Un panorama des méthodes déterministes et probabilistes est présenté, les prévisions d'une sélection de critères sont confrontées à des résultats d'essais afin de juger de leur qualité. Des essais de fatigue à amplitude constante sous sollicitations simples et combinées ont été réalisés sur des éprouvettes lisses en alliage de titane Ti-6A1-4V. Des essais de fatigue en flexion plane alternée symétrique à deux blocs (bas/haut) répétés alternativement jusqu'à fissuration ont permis de confirmer l'existence d'un seuil en contrainte en dessous duquel les cycles ont une influence négligeable sur la durée de vie de cet alliage. Un modèle probabiliste appliqué à la fatigue multiaxiale à grand nombre de cycles sous chargement d'amplitude constante est proposé en combinant l'approche énergétique et volumique du LAMEFIP au formalisme de Weibull. Tout en concervant les avantages de la formulation déterministe (prise en compte de la répartition volumique des contraintes et des déformations et distinction de tous les cas de chargement), cette proposition prévoit une probabilité de fissuration de la structure avant une durée de vie fixée selon le niveau de contrainte. Le modèle prévoit aussi l'effet d'échelle et permet d'estimer la dipersion de la résistance à la fatique. Les prévisions du modèle proposé sont en bon accord avec l'expérience (sur l'alliage de titane Ti-6Al-4V, la fonte à graphite sphéroi͏̈dal EN-GJS800-2 et les aciers C18 recuit, 35CrMo4 trempé revenu). Cette proposition permet de prévoir correctement les courbes P-S-N à partir d'une seule courbe S-N expérimentale. Le développement d'un post-processeur orienté objet de calcul en fatique multiaxiale permet d'appliquer le critère déterministe du LAMEFIP à des éprouvettes entières.
APA, Harvard, Vancouver, ISO, and other styles
36

Serra, Romain. "Opérations de proximité en orbite : évaluation du risque de collision et calcul de manoeuvres optimales pour l'évitement et le rendez-vous." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0035/document.

Full text
Abstract:
Cette thèse traite de l'évitement de collision entre un engin spatial opérationnel, appelé objet primaire, et un débris orbital, dit secondaire. Ces travaux concernent aussi bien la question de l'estimation du risque pour une paire d'objets sphériques que celle du calcul d'un plan de manoeuvres d'évitement pour le primaire. Pour ce qui est du premier point, sous certaines hypothèses, la probabilité de collision s'exprime comme l'intégrale d'une fonction gaussienne sur une boule euclidienne, en dimension deux ou trois. On en propose ici une nouvelle méthode de calcul, basée sur les théories de la transformée de Laplace et des fonctions holonomes. En ce qui concerne le calcul de manoeuvres de propulsion, différentes méthodes sont développées en fonction du modèle considéré. En toute généralité, le problème peut être formulé dans le cadre de l'optimisation sous contrainte probabiliste et s'avère difficile à résoudre. Dans le cas d'un mouvement considéré comme relatif rectiligne, l'approche par scénarios se prête bien au problème et permet d'obtenir des solutions admissibles. Concernant les rapprochements lents, une linéarisation de la dynamique des objets et un recouvrement polyédral de l'objet combiné sont à la base de la construction d'un problème de substitution. Deux approches sont proposées pour sa résolution : une première directe et une seconde par sélection du risque. Enfin, la question du calcul de manoeuvres de proximité en consommation optimale et temps fixé, sans contrainte d'évitement, est abordée. Par l'intermédiaire de la théorie du vecteur efficacité, la solution analytique est obtenue pour la partie hors-plan de la dynamique képlérienne linéarisée
This thesis is about collision avoidance for a pair of spherical orbiting objects. The primary object - the operational satellite - is active in the sense that it can use its thrusters to change its trajectory, while the secondary object is a space debris that cannot be controlled in any way. Onground radars or other means allow to foresee a conjunction involving an operational space craft,leading in the production of a collision alert. The latter contains statistical data on the position and velocity of the two objects, enabling for the construction of a probabilistic collision model.The work is divided in two parts : the computation of collision probabilities and the design of maneuvers to lower the collision risk. In the first part, two kinds of probabilities - that can be written as integrals of a Gaussian distribution over an Euclidean ball in 2 and 3 dimensions -are expanded in convergent power series with positive terms. It is done using the theories of Laplace transform and Definite functions. In the second part, the question of collision avoidance is formulated as a chance-constrained optimization problem. Depending on the collision model, namely short or long-term encounters, it is respectively tackled via the scenario approach or relaxed using polyhedral collision sets. For the latter, two methods are proposed. The first one directly tackles the joint chance constraints while the second uses another relaxation called risk selection to obtain a mixed-integer program. Additionaly, the solution to the problem of fixed-time fuel minimizing out-of-plane proximity maneuvers is derived. This optimal control problem is solved via the primer vector theory
APA, Harvard, Vancouver, ISO, and other styles
37

Vieira, Flavio Henrique Teles. "Contribuições ao calculo de banda e de probabilidade de perda para trafego multifractal de redes." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260936.

Full text
Abstract:
Orientador: Lee Luan Ling
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-08T01:26:33Z (GMT). No. of bitstreams: 1 Vieira_FlavioHenriqueTeles_D.pdf: 4214611 bytes, checksum: 755dfe9865aff1214f8e551afde7541d (MD5) Previous issue date: 2006
Resumo: A modelagem multifractal generaliza os modelos de tráfego existentes na literatura e se mostra apropriada para descrever as características encontradas nos fluxos de tráfego das redes atuais. A presente tese investiga abordagens para alocação de banda, predição de tráfego e estimação de probabilidade de perda de bytes considerando as características multifractais de tráfego. Primeiramente, um Modelo Multifractal baseado em Wavelets (MMW) é proposto. Levando em consideração as propriedades deste modelo, são derivados o parâmetro de escala global, a função de autocorrelação e a banda efetiva para processos multifractais. A capacidade de atualização em tempo real do MMW aliada à banda efetiva proposta permite o desenvolvimento de um algoritmo de estimação adaptativa de banda efetiva. Através deste algoritmo é introduzido um esquema de provisão adaptativo de banda efetiva. Estuda-se também a alocação de banda baseada em predição de tráfego. Para este fim, propõe-se um preditor adaptativo fuzzy de tráfego, o qual é aplicado em uma nova estratégia de alocação de banda. O preditor fuzzy adaptativo proposto utiliza funções de base ortonormais baseadas nas propriedades do MMW. Com relação à probabilidade de perda para tráfego multifractal, derivase uma expressão analítica para a estimação da probabilidade de perda de bytes considerando que o tráfego obedece ao MMW. Além disso, uma caracterização mais completa do comportamento de fila é efetuada pela obtenção de limitantes para a probabilidade de perda e para a ocupação média do buffer em termos da banda efetiva do MMW. Por fim, é apresentado um esquema de controle de admissão usando o envelope efetivo proposto para o MMW oriundo do cálculo de rede estatístico, que garante que os fluxos admitidos obedeçam simultaneamente aos requisitos de perda e de retardo. As simulações realizadas evidenciam a relevância das propostas apresentadas
Abstract: Multifractal modeling generalizes the existing traffic models and is believed to be appropriate to describe the characteristics of traffic flows of modern communication networks. This thesis investigates some novel approaches for bandwidth allocation, traffic prediction and byte loss probability estimation, by considering the multifractal characteristics of the network traffic. Firstly, a Wavelet based Multifractal Model (WMM) is proposed. Taking into account the properties of this multifractal model, we derive the global scaling parameter, the autocorrelation function and the effective bandwidth for multifractal processes. The real time updating capacity of the WMM in connection with our effective bandwidth proposal allows us to develop an algorithm for adaptive effective bandwidth estimation. Then, through this algorithm, an adaptive bandwidth provisioning scheme is introduced. In this work, we also study a prediction-based bandwidth allocation case. For this end, we develop an adaptive fuzzy predictor, which is incorporated into a novel bandwidth allocation scheme. The proposed adaptive fuzzy predictor makes use of orthonormal basis functions based on the properties of the WMM. Additionally, we derive an analytical expression for the byte loss probability estimation assuming that the traffic obeys the MMW. Besides, a more complete characterization of the queuing behavior is carried out through the estimation of the bounds for the loss probability and mean queue length in buffer in terms of the WMM based effective bandwidth. Finally, an admission control scheme is presented that uses the WMM based effective envelope derived through the statistical network calculus, guaranteeing that the admitted flows simultaneously attend the loss and delay requirements. The computer simulation results confirm the relevance of the presented proposals
Doutorado
Telecomunicações e Telemática
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
38

De, Marco Stefano. "On probability distributions of diffusions and financial models with non-globally smooth coefficients." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00588686.

Full text
Abstract:
Some recent works in the field of mathematical finance have brought new light on the importance of studying the regularity and the tail asymptotics of distributions for certain classes of diffusions with non-globally smooth coefficients. In this Ph.D. dissertation we deal with some issues in this framework. In a first part, we study the existence, smoothness and space asymptotics of densities for the solutions of stochastic differential equations assuming only local conditions on the coefficients of the equation. Our analysis is based on Malliavin calculus tools and on " tube estimates " for Ito processes, namely estimates for the probability that the trajectory of an Ito process remains close to a deterministic curve. We obtain significant estimates of densities and distribution functions in general classes of option pricing models, including generalisations of CIR and CEV processes and Local-Stochastic Volatility models. In the latter case, the estimates we derive have an impact on the moment explosion of the underlying price and, consequently, on the large-strike behaviour of the implied volatility. Parametric implied volatility modeling, in its turn, makes the object of the second part. In particular, we focus on J. Gatheral's SVI model, first proposing an effective quasi-explicit calibration procedure and displaying its performances on market data. Then, we analyse the capability of SVI to generate efficient approximations of symmetric smiles, building an explicit time-dependent parameterization. We provide and test the numerical application to the Heston model (without and with displacement), for which we generate semi-closed expressions of the smile
APA, Harvard, Vancouver, ISO, and other styles
39

AWANTO, CHRISTOPHE. "Etude et developpement d'une methode de calcul des systemes photovoltaiques, basee sur le concept de la probabilite de rupture de charge." Evry-Val d'Essonne, 1994. http://www.theses.fr/1994EVRY0013.

Full text
Abstract:
Dans ce travail, nous developpons une methode de dimensionnement des systemes photovoltaiques. La methode est basee sur le concept de la probabilite de rupture de charge (prc). La probabilite de rupture de charge est un parametre qui reflete la fiabilite du systeme etudie en fonctionnement sur un site donne. Elle est determinee par la simulation du fonctionnement du systeme et caracterise ses performances a long terme. La mise en uvre de la methode necessite la connaissance de donnees meteorologiques horaires et du profil de la demande. Dans la premiere partie de ce travail, nous presentons une demarche statistique permettant de construire un simulateur de donnees meteorologiques. La seconde partie du travail est consacree a la caracterisation des systemes photovoltaiques et a la mise en uvre de la methode pour le dimensionnement des systemes. Trois types de profil de la demande ont ete examines. Le travail se termine par la presentation du dispositif experimental et la validation de la methode
APA, Harvard, Vancouver, ISO, and other styles
40

Ameryoun, Hamed. "Calcul probabiliste des actions de houle pour l'éolien offshore au large des côtes ligériennes en présence de bio-salissures." Nantes, 2015. http://www.theses.fr/2015NANT2046.

Full text
Abstract:
La nature aléatoire de la bio-colonisation et l'incertitude inhérente aux processus biologiques rendent complexes la modélisation des chargements environnementaux. La bio-colonisation implique une diversité d'espèces marines dont les dynamiques de croissance sont régies par des processus biologiques. Elle est la cause de nombreux impacts négatifs sur les structures offshore tels que l’excès d’efforts hydrodynamiques. Plusieurs méthodes d'inspections et de mesures in situ réglementées et ont été développées afin d’obtenir des informations pertinentes sur la composition des espèces, leur pourcentage de recouvrement, l'épaisseur et la rugosité de la surface. Les processus de bio-colonisation montrent des variations spatiales et temporelles liées à plusieurs facteurs environnementaux agissant aux échelles régionales et locales. Cette thèse se compose de quatre chapitres. Le premier chapitre résume les techniques d’inspection des bio-salissures et présente les organismes marins ainsi que les paramètres influençant. Le second chapitre traite de la bio-colonisation en tant que processus de détérioration cumulatif et définit deux phases, une phase d'initiation et une phase de propagation. Il propose une modélisation stochastique de la bio-colonisation basée sur un processus gamma non-stationnaire dépendant de l'état des paramètres influençant la croissance de moule Mytilus edulis. Le troisième chapitre se concentre sur le coefficient de trainée de l'équation Morison exercée par les vagues extrêmes pour les structures colonisés pendant les années de macro-colonisation typiques. Enfin, le dernier chapitre aborde les résultats et les recommandations pour des études supplémentaires
One of the most important phases during the design or assessment of an offshore structure is evaluation of environmental loads and updating data such as biofouling. The random nature of biofouling and its inherent uncertainty make modeling of environmental loading complicated. Biofouling is a complex phenomenon involving a diversity of marine species. It has many negative impacts on offshore structures such as increase in drag coefficient. Therefore, it represents a challenge for engineers with respect to design and maintenance programs. Several standardized methods of inspections of marine growth have been developed to obtain relevant information about species composition, percent cover, weight, thickness and. Biocolonization processes show spatial and temporal variations related to several environmental factors acting at regional and local scales. This dissertation is comprised of four chapters. Chapter One summarizes biofouling inspections and measurement techniques and presents biofouling communities and influencing parameters. Chapter Two considers the biocolonization as a cumulative deterioration process and defines two phases of initiation and propagation for it. It proposes a stochastic modeling of biofouling based on non-stationary state-dependent gamma process for the blue mussel Mytilus edulis. Chapter Three focuses on drag term of the Morison’s equation. It reviews the effect of surface roughness (k) and average thickness of marine growth (Th). Moreover, the drag force exerted by extreme waves for colonized structure during the typical macro-colonization years is determined. Last chapter discusses the results and recommendation for further studies
APA, Harvard, Vancouver, ISO, and other styles
41

Lahjaily, Hamid. "Introduction de la dilution dans la modélisation de la combustion turbulente pour les mélanges pauvres : application à une flamme stabilisée dans un écoulement à point d'arrêt." Poitiers, 1998. http://www.theses.fr/1998POIT2338.

Full text
Abstract:
On considere la modelisation de la combustion turbulente des melanges pauvres a richesse variable, en particulier le cas d'un melange reactif dilue par l'air ambiant. Les bases d'une description thermochimique du melange instantane sont posees. Celle-ci est basee sur deux variables scalaires : une fraction de melange f liee a la richesse du melange frais local et une variable d'avancement c decrivant les reactions chimiques. Ces dernieres permettent d'exprimer la temperature et les fractions massiques des especes. A partir de l'analyse des etats des paquets de gaz frais et brules, une densite de probabilite jointe de c et f permettant de decrire l'etat thermochimique du melange reactif turbulent est proposee. Suivant l'hypothese d'un regime de flammelettes minces, la structure de cette pdf permet la description de la combustion d'un melange a richesse variable, prenant en compte en particulier l'extinction de flammelettes dans un melange dont la richesse est inferieure a la limite d'inflammabilite en regime pauvre. Cette pdf permet en outre de calculer le taux de production chimique moyen $$ : terme primordial dans la modelisation de la combustion turbulente de premelange. Une formulation de $$ tenant compte explicitement de la richesse locale du melange et de sa distribution statistique est proposee. Ce modele, associe a une fermeture des termes de transports turbulents par un modele k- est applique au cas d'une flamme stabilisee dans un ecoulement turbulent a point d'arret. Les resultats numeriques obtenus predisent en particulier une zone de reaction moyenne plane stabilisee entre le bruleur et la paroi conformement aux observations experimentales. Par ailleurs, les comparaisons sur l'axe de symetrie avec les resultats des theories 1d et les donnees experimentales permettent de quantifier l'effet de la dilution par l'air exterieur sur la structure de la flamme.
APA, Harvard, Vancouver, ISO, and other styles
42

LYOUSSI-CHARRAT, NAIMA. "Calcul de transport neutronique dans le code apollo2 par la methode des probabilites de collision dans une geometrie cartesienne generale." Clermont-Ferrand 2, 1994. http://www.theses.fr/1994CLF21619.

Full text
Abstract:
La nouvelle methode tdt (two dimensional transport) est integree dans le code de transport apollo2. L'objectif d'un tel developpement est de calculer les probabilites de collisions dans une geometrie aussi complexe soit-elle, dans la limite des types d'equations qui y sont programmes, a savoir segment de droite, arcs de cercle, cercle ou encore une developpante de cercle. Un nouveau type de geometrie dit geometrie generale xy qui admet un large eventail de types de conditions a la frontiere d'un domaine, est maintenant disponible dans le code apollo2. L'integration de la methode tdt dans apollo2 permet a present de calculer le flux neutronique par la methode des probabilites de collision, en tenant compte de certains details geometriques qui brisent la regularite traditionnelle d'un reseau. Les approximations qui ont ete adoptees sont celle du flux plat par region et l'isotropie des lois de choc ainsi que celle des sources de neutrons. Un calcul de transport par la geometrie generale presente l'avantage d'etre moins couteux que les methodes stochastiques tout en beneficiant d'une bonne precision de calcul. Pour des raisons economiques, une option approchee de tdt, basee sur la methode des courants d'interface (ci), est egalement integree dans apollo2. Bien qu'approximative, cette methode demeure plus precise que la methode multicell d'apollo2, vu que les matrices pc dans la geometrie generale sont calculees exactement dans chaque macro-region ; a deux dimensions. Cette option serait avantageusement employee dans le cas de gros systemes correspondant a des matrices pc de dimension importante. Le nombre d'elements pij a calculer devient alors largement inferieur a celui qui serait associe au calcul qui prend en compte toutes les interactions entre les regions du domaine entier. Quant a la representation des flux angulaires sortant et rentrant par une interface, une approximation en secteurs angulaires dite conique est ajoutee aux deux representations classiques dans apollo2 up0 et up1. Un autre avantage de cette methode est la possibilite d'attribuer, lors de l'elaboration du maillage d'integration, un parametre radial r specifique a chaque macro-region. Ceci optimise la convergence des resultats par rapport a la formule d'integration numerique. Plusieurs tests ont contribue a la validation et a la qualification de la methode tdt, aussi bien sous sa forme exacte (methode des pc) que sous sa forme approchee (methode des ci). D'une maniere globale, la comparaison des resultats obtenus par la geometrie generale d'apollo2 avec ceux des divers codes de reference est tres satisfaisante. L'etude portee particulierement sur l'assemblage russe a tube de force rbmk, en reseau infini a permis une bonne evaluation du coefficient de vide. Les calculs des taux de reactions dans ce meme assemblage confirment que les modules de sortie d'apollo2 sont adaptes a la geometrie generale
APA, Harvard, Vancouver, ISO, and other styles
43

Bandini, Elena. "Représentation probabiliste d'équations HJB pour le contrôle optimal de processus à sauts, EDSR (équations différentielles stochastiques rétrogrades) et calcul stochastique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY005/document.

Full text
Abstract:
Dans le présent document on aborde trois divers thèmes liés au contrôle et au calcul stochastiques, qui s'appuient sur la notion d'équation différentielle stochastique rétrograde (EDSR) dirigée par une mesure aléatoire. Les trois premiers chapitres de la thèse traitent des problèmes de contrôle optimal pour différentes catégories de processus markoviens non-diffusifs, à horizon fini ou infini. Dans chaque cas, la fonction valeur, qui est l'unique solution d'une équation intégro-différentielle de Hamilton-Jacobi-Bellman (HJB), est représentée comme l'unique solution d'une EDSR appropriée. Dans le premier chapitre, nous contrôlons une classe de processus semi-markoviens à horizon fini; le deuxième chapitre est consacré au contrôle optimal de processus markoviens de saut pur, tandis qu'au troisième chapitre, nous examinons le cas de processus markoviens déterministes par morceaux (PDMPs) à horizon infini. Dans les deuxième et troisième chapitres les équations d'HJB associées au contrôle optimal sont complètement non-linéaires. Cette situation survient lorsque les lois des processus contrôlés ne sont pas absolument continues par rapport à la loi d'un processus donné. Etant donné ce caractère complètement non-linéaire, ces équations ne peuvent pas être représentées par des EDSRs classiques. Dans ce cadre, nous avons obtenu des formules de Feynman-Kac non-linéaires en généralisant la méthode de la randomisation du contrôle introduite par Kharroubi et Pham (2015) pour les diffusions. Ces techniques nous permettent de relier la fonction valeur du problème de contrôle à une EDSR dirigée par une mesure aléatoire, dont une composante de la solution subit une contrainte de signe. En plus, on démontre que la fonction valeur du problème de contrôle originel non dominé coïncide avec la fonction valeur d'un problème de contrôle dominé auxiliaire, exprimé en termes de changements de mesures équivalentes de probabilité. Dans le quatrième chapitre, nous étudions une équation différentielle stochastique rétrograde à horizon fini, dirigée par une mesure aléatoire à valeurs entières sur $R_+ times E$, o`u $E$ est un espace lusinien, avec compensateur de la forme $nu(dt, dx) = dA_t phi_t(dx)$. Le générateur de cette équation satisfait une condition de Lipschitz uniforme par rapport aux inconnues. Dans la littérature, l'existence et unicité pour des EDSRs dans ce cadre ont été établies seulement lorsque $A$ est continu ou déterministe. Nous fournissons un théorème d'existence et d'unicité même lorsque $A$ est un processus prévisible, non décroissant, continu à droite. Ce résultat s’applique par exemple, au cas du contrôle lié aux PDMPs. En effet, quand $mu$ est la mesure de saut d'un PDMP sur un domaine borné, $A$ est prévisible et discontinu. Enfin, dans les deux derniers chapitres de la thèse nous traitons le calcul stochastique pour des processus discontinus généraux. Dans le cinquième chapitre, nous développons le calcul stochastique via régularisations des processus à sauts qui ne sont pas nécessairement des semimartingales. En particulier nous poursuivons l'étude des processus dénommés de Dirichlet faibles, dans le cadre discontinu. Un tel processus $X$ est la somme d'une martingale locale et d'un processus adapté $A$ tel que $[N, A] = 0$, pour toute martingale locale continue $N$. Pour une fonction $u: [0, T] times R rightarrow R$ de classe $C^{0,1}$ (ou parfois moins), on exprime un développement de $u(t, X_t)$, dans l'esprit d'une généralisation du lemme d'Itô, lequel vaut lorsque $u$ est de classe $C^{1,2}$. Le calcul est appliqué dans le sixième chapitre à la théorie des EDSRs dirigées par des mesures aléatoires. Dans de nombreuses situations, lorsque le processus sous-jacent $X$ est une semimartingale spéciale, ou plus généralement, un processus de Dirichlet spécial faible, nous identifions les solutions des EDSRs considérées via le processus $X$ et la solution $u$ d’une EDP intégro-différentielle associée
In the present document we treat three different topics related to stochastic optimal control and stochastic calculus, pivoting on thenotion of backward stochastic differential equation (BSDE) driven by a random measure.After a general introduction, the three first chapters of the thesis deal with optimal control for different classes of non-diffusiveMarkov processes, in finite or infinite horizon. In each case, the value function, which is the unique solution to anintegro-differential Hamilton-Jacobi-Bellman (HJB) equation, is probabilistically represented as the unique solution of asuitable BSDE. In the first chapter we control a class of semi-Markov processes on finite horizon; the second chapter isdevoted to the optimal control of pure jump Markov processes, while in the third chapter we consider the case of controlled piecewisedeterministic Markov processes (PDMPs) on infinite horizon. In the second and third chapters the HJB equations associatedto the optimal control problems are fully nonlinear. Those situations arise when the laws of the controlled processes arenot absolutely continuous with respect to the law of a given, uncontrolled, process. Since the corresponding HJB equationsare fully nonlinear, they cannot be represented by classical BSDEs. In these cases we have obtained nonlinear Feynman-Kacrepresentation formulae by generalizing the control randomization method introduced in Kharroubi and Pham (2015)for classical diffusions. This approach allows us to relate the value function with a BSDE driven by a random measure,whose solution hasa sign constraint on one of its components.Moreover, the value function of the original non-dominated control problem turns out to coincide withthe value function of an auxiliary dominated control problem, expressed in terms of equivalent changes of probability measures.In the fourth chapter we study a backward stochastic differential equation on finite horizon driven by an integer-valued randommeasure $mu$ on $R_+times E$, where $E$ is a Lusin space, with compensator $nu(dt,dx)=dA_t,phi_t(dx)$. The generator of thisequation satisfies a uniform Lipschitz condition with respect to the unknown processes.In the literature, well-posedness results for BSDEs in this general setting have only been established when$A$ is continuous or deterministic. We provide an existence and uniqueness theorem for the general case, i.e.when $A$ is a right-continuous nondecreasing predictable process. Those results are relevant, for example,in the frameworkof control problems related to PDMPs. Indeed, when $mu$ is the jump measure of a PDMP on a bounded domain, then $A$ is predictable and discontinuous.Finally, in the two last chapters of the thesis we deal with stochastic calculus for general discontinuous processes.In the fifth chapter we systematically develop stochastic calculus via regularization in the case of jump processes,and we carry on the investigations of the so-called weak Dirichlet processes in the discontinuous case.Such a process $X$ is the sum of a local martingale and an adapted process $A$ such that $[N,A] = 0$, for any continuouslocal martingale $N$.Given a function $u:[0,T] times R rightarrow R$, which is of class $C^{0,1}$ (or sometimes less), we provide a chain rule typeexpansion for $u(t,X_t)$, which constitutes a generalization of It^o's lemma being valid when $u$ is of class $C^{1,2}$.This calculus is applied in the sixth chapter to the theory of BSDEs driven by random measures.In several situations, when the underlying forward process $X$ is a special semimartingale, or, even more generally,a special weak Dirichlet process,we identify the solutions $(Y,Z,U)$ of the considered BSDEs via the process $X$ and the solution $u$ to an associatedintegro PDE
APA, Harvard, Vancouver, ISO, and other styles
44

Bandini, Elena. "Représentation probabiliste d'équations HJB pour le contrôle optimal de processus à sauts, EDSR (équations différentielles stochastiques rétrogrades) et calcul stochastique." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY005.

Full text
Abstract:
Dans le présent document on aborde trois divers thèmes liés au contrôle et au calcul stochastiques, qui s'appuient sur la notion d'équation différentielle stochastique rétrograde (EDSR) dirigée par une mesure aléatoire. Les trois premiers chapitres de la thèse traitent des problèmes de contrôle optimal pour différentes catégories de processus markoviens non-diffusifs, à horizon fini ou infini. Dans chaque cas, la fonction valeur, qui est l'unique solution d'une équation intégro-différentielle de Hamilton-Jacobi-Bellman (HJB), est représentée comme l'unique solution d'une EDSR appropriée. Dans le premier chapitre, nous contrôlons une classe de processus semi-markoviens à horizon fini; le deuxième chapitre est consacré au contrôle optimal de processus markoviens de saut pur, tandis qu'au troisième chapitre, nous examinons le cas de processus markoviens déterministes par morceaux (PDMPs) à horizon infini. Dans les deuxième et troisième chapitres les équations d'HJB associées au contrôle optimal sont complètement non-linéaires. Cette situation survient lorsque les lois des processus contrôlés ne sont pas absolument continues par rapport à la loi d'un processus donné. Etant donné ce caractère complètement non-linéaire, ces équations ne peuvent pas être représentées par des EDSRs classiques. Dans ce cadre, nous avons obtenu des formules de Feynman-Kac non-linéaires en généralisant la méthode de la randomisation du contrôle introduite par Kharroubi et Pham (2015) pour les diffusions. Ces techniques nous permettent de relier la fonction valeur du problème de contrôle à une EDSR dirigée par une mesure aléatoire, dont une composante de la solution subit une contrainte de signe. En plus, on démontre que la fonction valeur du problème de contrôle originel non dominé coïncide avec la fonction valeur d'un problème de contrôle dominé auxiliaire, exprimé en termes de changements de mesures équivalentes de probabilité. Dans le quatrième chapitre, nous étudions une équation différentielle stochastique rétrograde à horizon fini, dirigée par une mesure aléatoire à valeurs entières μ sur ℝ+ x E, où E est un espace lusinien, avec compensateur de la forme v(dt dx) = dAt φt(dx). Le générateur de cette équation satisfait une condition de Lipschitz uniforme par rapport aux inconnues. Dans la littérature, l'existence et unicité pour des EDSRs dans ce cadre ont été établies seulement lorsque A est continu ou déterministe. Nous fournissons un théorème d'existence et d'unicité même lorsque A est un processus prévisible, non décroissant, continu à droite. Ce résultat s’applique par exemple, au cas du contrôle lié aux PDMPs. En effet, quand μ est la mesure de saut d'un PDMP sur un domaine borné, A est prévisible et discontinu. Enfin, dans les deux derniers chapitres de la thèse nous traitons le calcul stochastique pour des processus discontinus généraux. Dans le cinquième chapitre, nous développons le calcul stochastique via régularisations des processus à sauts qui ne sont pas nécessairement des semimartingales. En particulier nous poursuivons l'étude des processus dénommés de Dirichlet faibles, dans le cadre discontinu. Un tel processus X est la somme d'une martingale locale et d'un processus adapté A tel que [N, A] = 0, pour toute martingale locale continue N. Pour une fonction u: [0, T] x ℝ → ℝ de classe C⁰′¹ (ou parfois moins), on exprime un développement de u(t, Xt), dans l'esprit d'une généralisation du lemme d'Itô, lequel vaut lorsque u est de classe C¹′². Le calcul est appliqué dans le sixième chapitre à la théorie des EDSRs dirigées par des mesures aléatoires. Dans de nombreuses situations, lorsque le processus sous-jacent X est une semimartingale spéciale, ou plus généralement, un processus de Dirichlet spécial faible, nous identifions les solutions des EDSRs considérées via le processus X et la solution u d’une EDP intégro-différentielle associée
In the present document we treat three different topics related to stochastic optimal control and stochastic calculus, pivoting on thenotion of backward stochastic differential equation (BSDE) driven by a random measure.After a general introduction, the three first chapters of the thesis deal with optimal control for different classes of non-diffusiveMarkov processes, in finite or infinite horizon. In each case, the value function, which is the unique solution to anintegro-differential Hamilton-Jacobi-Bellman (HJB) equation, is probabilistically represented as the unique solution of asuitable BSDE. In the first chapter we control a class of semi-Markov processes on finite horizon; the second chapter isdevoted to the optimal control of pure jump Markov processes, while in the third chapter we consider the case of controlled piecewisedeterministic Markov processes (PDMPs) on infinite horizon. In the second and third chapters the HJB equations associatedto the optimal control problems are fully nonlinear. Those situations arise when the laws of the controlled processes arenot absolutely continuous with respect to the law of a given, uncontrolled, process. Since the corresponding HJB equationsare fully nonlinear, they cannot be represented by classical BSDEs. In these cases we have obtained nonlinear Feynman-Kacrepresentation formulae by generalizing the control randomization method introduced in Kharroubi and Pham (2015)for classical diffusions. This approach allows us to relate the value function with a BSDE driven by a random measure,whose solution hasa sign constraint on one of its components.Moreover, the value function of the original non-dominated control problem turns out to coincide withthe value function of an auxiliary dominated control problem, expressed in terms of equivalent changes of probability measures.In the fourth chapter we study a backward stochastic differential equation on finite horizon driven by an integer-valued randommeasure μ on ℝ+ x E, where E is a Lusin space, with compensator v(dt,dx)=dAt φ(dx). The generator of thisequation satisfies a uniform Lipschitz condition with respect to the unknown processes.In the literature, well-posedness results for BSDEs in this general setting have only been established when A is continuous or deterministic. We provide an existence and uniqueness theorem for the general case, i.e. when A is a right-continuous nondecreasing predictable process. Those results are relevant, for example, in the frameworkof control problems related to PDMPs. Indeed, when μ is the jump measure of a PDMP on a bounded domain, then A is predictable and discontinuous.Finally, in the two last chapters of the thesis we deal with stochastic calculus for general discontinuous processes.In the fifth chapter we systematically develop stochastic calculus via regularization in the case of jump processes,and we carry on the investigations of the so-called weak Dirichlet processes in the discontinuous case.Such a process X is the sum of a local martingale and an adapted process A such that [N,A] = 0, for any continuouslocal martingale N.Given a function u:[0,T] x ℝ → R, which is of class C⁰′¹ (or sometimes less), we provide a chain rule type expansion for u(t, Xt), which constitutes a generalization of Itô's lemma being valid when u is of class C¹′².This calculus is applied in the sixth chapter to the theory of BSDEs driven by random measures.In several situations, when the underlying forward process X is a special semimartingale, or, even more generally,a special weak Dirichlet process,we identify the solutions (Y,Z,U) of the considered BSDEs via the process X and the solution u to an associated integro PDE
APA, Harvard, Vancouver, ISO, and other styles
45

Averous, Jean, and Michel Meste. "Famille de boules centrales d'une probabilité sur un espace de Banach. Application aux ordres et mesures de dissymétrie et de kurtosis." Toulouse 3, 1992. http://www.theses.fr/1992TOU30017.

Full text
Abstract:
Pour une probabilite sur un espace de banach, les auteurs introduisent une famille de boules centrales, indicee par leur rayon; ce sont les boules fermees dont le centre minimise un critere qui, si le rayon est nul, est celui qui sert a definir la mediane spatiale. Les proprietes de cette mediane ont ete etudiees par kemperman en 1987. Il est montre que ces proprietes, en particulier celles de robustesse et de convergence, sont conservees par les boules centrales. Les proprietes plus specifiques des fonctions de centrage et de dispersion qui associent au rayon d'une boule centrale respectivement le centre et la probabilite de cette boule, sont detaillees. Ces proprietes sont utilisees pour definir, d'une part une dissymetrie par rapport a la mediane dans la direction d'un cone convexe ainsi qu'un ordre et des mesures pour ce concept, d'autre part une fonction de kurtosis sur laquelle les auteurs fondent un ordre ne necessitant pas la symetrie centrale des lois. Des exemples de ces fonctions sont donnes pour des lois usuelles. Centre, dispersion, dissymetrie et kurtosis sont ainsi analyses de facon coherente avec la norme. Dans le cas particulier de lois reelles ils generalisent les m-parametres de centrage par des intervalles centraux optimaux, et definissent pour la s-moyenne un poids des queues coherent avec ce centre. Ce dernier concept leur sert a definir, pour toute loi de s-moyenne finie, une fonction de repartition de loi continue unimodale dont l'analyse exploratoire par des methodes fondees sur les quantiles fournit une description de la loi initiale au sens s-moyenne. Ce concept leur sert egalement a unifier la classification des familles nonparametriques de lois de duree de vie et a preciser leur structure hierarchique
APA, Harvard, Vancouver, ISO, and other styles
46

Derouet, Charlotte. "La fonction de densité au carrefour entre probabilités et analyse en terminale S : Etude de la conception et de la mise en oeuvre de tâches d'introduction articulant lois à densité et calcul intégral." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC126/document.

Full text
Abstract:
Cette thèse porte sur les articulations entre les probabilités et l’analyse en classe de terminale scientifique. Nous avons exploré comment se créent et sont exploités les liens entre les sous-domaines mathématiques des probabilités des lois à densité et du calcul intégral, à travers une recherche centrée sur la notion de fonction de densité. En adoptant le modèle des Espaces de Travail Mathématique et des éléments de la théorie de l’activité, nous nous sommes demandé quelles tâches permettent d’introduire cette notion et de construire la relation sémiotique reliant probabilité et intégrale. Pour aborder cette question, nous avons commencé parfaire une étude épistémologique et historique de la naissance de la notion de lois à densité, qui nous a notamment permis de dégager la place importante de la statistique dans cette genèse. Puis, nous avons effectué une analyse des documents institutionnels et des manuels. Cette analyse a montré que l’articulation entre probabilités à densité et calcul intégral est imposée aux élèves et peu exploitée dans les différentes tâches qui leur sont proposées. Enfin, nous avons étudié la conception et la mise en place de tâches d’introduction originales grâce à une méthodologie de recherche que nous qualifions d’ingénierie didactique collaborative. Ces tâches ont pour objectif de faire construire, par le « collectif » classe, la notion de fonction de densité et d’amener le besoin du calcul d’aire sous une courbe. Nous avons mis en évidence les activités de ce collectif classe, dans la construction de cette notion, en analysant les circulations entre trois sous-domaines : les probabilités à densité, la statistique descriptive et le calcul intégral
This thesis focuses on the connections between probability and analysis (calculus) in the scientific track of Grade 12 (French baccalaureate program). We explored the ways in which links between the mathematics subfields of continuous probability and integral calculus are created and explored, through a research focused on the concept of density function. Using the Mathematical Working Space model and some elements of Activity Theory, we sought to identify tasks that would allow introducing this concept and building the semiotic relationship between probability and integral. In order to address this issue, we began with an epistemological and historical study of the birth of the concept of density function, which enabled us to identify the important role of statistics in this genesis. Then, an analysis of institutional documents and textbooks showed that the link between continuous probability and integral calculus is imposed on students and rarely exploited in the different tasks given to them. Finally, we studied the design and implementation of original introductory tasks through a research methodology that we call “collaborative didactic engineering”. The goal of these tasks is to get the class “collective” to construct the concept of density function and trigger the need for calculating areas under a curve. We highlighted the activities of the class “collective” in the construction of this notion by analyzing articulations between the three subfields: continuous probability, descriptive statistics and integral calculus
APA, Harvard, Vancouver, ISO, and other styles
47

Cauvin, Maxime Verdel Thierry. "Prise en compte des incertitudes et calcul de probabilité dans les études de risques liés au sol et au sous-sol." S. l. : INPL, 2007. http://www.scd.inpl-nancy.fr/theses/2007_CAUVIN_M.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Roussel, Olivier. "Génération aléatoire de structures ordonnées par le modèle de Boltzmann." Paris 6, 2012. http://www.theses.fr/2012PA066282.

Full text
Abstract:
Dans le domaine de la combinatoire, la génération aléatoire d’objets est un problème central relié à de nombreux aspects de la science combinatoire, que ce soit à l’énumération exacte ou asymptotique, ou à la vérification de conjectures. De nombreuses méthodes ont été proposées afin de résoudre efficacement ce problème, dont le modèle de Boltzmann. Ce modèle, au prix d’un contrôle moindre sur la taille des objets générés, assure les propriétés de complexité linéaire dans beaucoup de cas réels, et de facilité d’automatisation pour de larges classes d’objets. Cette thèse vise à étendre encore les classes d’objets combinatoires sur lesquelles ce modèle de Boltzmann peut s’appliquer, tout en conservant les propriétés d’efficacité et d’automatisation. La première partie est une étude des algorithmes de générations de Boltzmann existants, ainsi que de leur propriétés et leurs fondations mathématiques sous-jacentes. Dans une seconde partie, nous présentons notre idée de biaiser ces algorithmes pour étendre leur domaine de validité. Nous proposons une extension très générale, avant de l’appliquer à plusieurs opérateurs combinatoires tels que la dérivation, le produit de shuffle et l’opération de dépointage. Enfin, nous présentons un algorithme de génération uniforme pour le produit de Hadamard. Nous appuyons nos algorithmes et résultats par des exemples et données expérimentales illustrant le bien fondé de nos méthodes
Uniform random generation is a central issue in combinatorics. Indeed, random sampling is virtually connected to all parts of combinatorics, whether to exact or asymptotic enumeration, or to the experimental verification of conjectures. Various methods have been developed in order to efficiently solve that issue. Boltzmann model is among them. This method, relaxing some constraints about the size of the object being currently generated, ensures a linear complexity in many actual cases, and can easily be automatized for various combinatorial classes. This thesis aims at enlarging the set of such admissible classes, while keeping the nice properties of linear complexity and ease of automation. The first part is devoted to the presentation of the Boltzmann model and existing Boltzmann samplers, and the study of their properties and mathematical foundations. In the second part, we introduce our idea of biasing those samplers in order to enlarge their range of validity. Firstly, we present a general extension, and then specialize it to several combinatorial operations such as the derivation, the shuffle product or the unpointing operation. Finally, we present a uniform random sampler for the Hadamard product. We highlight our algorithms through this thesis with examples and experimental results, illustrating the efficiency of our methods
APA, Harvard, Vancouver, ISO, and other styles
49

Marie, Nicolas. "Trajectoires rugueuses, processus gaussiens et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00783931.

Full text
Abstract:
Les principaux thèmes de cette thèse sont la théorie des trajectoires rugueuses développée par T. Lyons (1998) et ses applications, notamment à l'étude des équations différentielles stochastiques (EDS) et au calcul de sensibilités. Des applications potentielles des résultats théoriques en science du vivant et en finance y sont également développés. En premier lieu, sont étendues l'existence et l'expression des grecques Delta et Véga, sensibilités bien connues en finance, pour des EDS à coefficients bornés et dirigées par un processus gaussien multidimensionnel centré, à trajectoires continues, au-dessus duquel il existe une trajectoire géométrique naturelle. Le cas du mouvement brownien fractionnaire a particulièrement été développé afin de proposer d'une part, une application du calcul de Véga dans un modèle de marché financier à volatilité stochastique fractionnaire et d'autre part, d'effectuer des simulations. En second lieu, est étudiée une généralisation d'équation mean-reverting au cas d'un signal gaussien unidimensionnel, centré et à trajectoires continues : existence globale et unicité de la solution, intégrabilité, continuité et différentiabilité de l'application d'Itô, existence d'un schéma d'approximation convergeant dans tous les Lp avec une vitesse de convergence presque-sure, un principe de grandes déviations et, l'existence d'une densité par rapport à la mesure de Lebesgue. L'étude de cette famille d'EDS a débouché sur une application en pharmacocinétique.
APA, Harvard, Vancouver, ISO, and other styles
50

Nicaise, Florent. "Calcul stochastique anticipant pour des processus avec sauts." Clermont-Ferrand 2, 2001. http://www.theses.fr/2001CLF2A003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography