To see the other types of publications on this topic, follow the link: Méthode Monte Carlo.

Dissertations / Theses on the topic 'Méthode Monte Carlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode Monte Carlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cornebise, Julien. "Méthodes de Monte Carlo séquentielles adaptatives." Paris 6, 2009. http://www.theses.fr/2009PA066152.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Güçlü, Alev Devrim. "Simulation des dispositifs optoélectroniques par la méthode Monte Carlo." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0021/MQ54037.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ounaissi, Daoud. "Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Full text
Abstract:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
APA, Harvard, Vancouver, ISO, and other styles
4

Arouna, Bouhari. "Algotithmes stochastiques et méthodes de Monte Carlo." Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001269.

Full text
Abstract:
Dans cette thèse,nous proposons de nouvelles techniques de réduction de variance, pourles simultions Monté Carlo. Par un simple changement de variable, nous modifions la loi de simulation de façon paramétrique. L'idée consiste ensuite à utiliser une version convenablement projetée des algorithmes de Robbins-Monro pour déterminer le paramètre optimal qui "minimise" la variance de l'estimation. Nous avons d'abord développé une implémentation séquentielle dans laquelle la variance est réduite dynamiquement au cours des itératons Monte Carlo. Enfin, dans la dernière partie de notre travail, l'idée principale a été d'interpréter la réduction de variance en termes de minimisation d'entropie relative entre une mesure de probabilité optimale donnée, et une famille paramétrique de mesures de probabilité. Nous avons prouvé des résultats théoriques généraux qui définissent un cadre rigoureux d'utilisation de ces méthodes, puis nous avons effectué plusieurs expérimentations en finance et en fiabilité qui justifient de leur efficacité réelle.
APA, Harvard, Vancouver, ISO, and other styles
5

Jaeckel, Alain. "Simulations Monte Carlo de chaînes confinées." Montpellier 2, 1997. http://www.theses.fr/1997MON20206.

Full text
Abstract:
Par simulation monte carlo (smc), nous generons a l'ordinateur des chemins statistiques (rfws) ou auto-evitants (saws) a l'interieur de pores spheriques de rayons variables. Ces chemins modelisent respectivement des chaines polymere confinees en solvant theta et en bon solvant. A partir des chaines ainsi construites, on estime les dimensions moyennes usuelles (distance moyenne bout a bout et rayon de giration moyen), les distributions des milieux et des extremites ou tous maillons confondus dans la sphere de confinement, la variation d'entropie en fonction du confinement impose et enfin la pression exercee par la chaine sur la surface de confinement. Nous donnons egalement une relation universelle entre le nombre de conformations d'une chaine de n pas, quel que soit son type, et un parametre de compacite determine par smc. Nous proposons aussi une extension de la theorie des blobs de de gennes. Nous discutons nos resultats au vu de resultats theoriques ou de publications anterieures. Nous etablissons l'existence de lois d'echelle, moyennant l'utilisation de parametres de reduction specifiques a chaque type de chaines (rfws ou saws), et montrons que rfws et saws presentent des comportements comparables pour des valeurs egales du rayon reduit de la sphere de confinement. Ainsi, certaines proprietes des saws confines dans des spheres peuvent etre deduits des resultats theoriques plus accessibles des rfws confines en tenant compte d'une simple renormalisation des dimensions, et ce avec un degre d'approximation satisfaisant, voire bon. Nous etendons nos smc au cas des parcours hamiltoniens dont le nombre peut etre estime, pour un carre de cote donne, via l'utilisation d'une loi d'echelle empirique que nous avons etablie. Enfin, nous avons cherche a elucider un vieux probleme de la litterature qui concerne l'exposant d'echelle et la dimension critique des chaines auto-evitantes generees par la procedure reflechissante non ponderee de rosenbluth et rosenbluth.
APA, Harvard, Vancouver, ISO, and other styles
6

Chabut, Emmanuel. "Simulation aérothermodynamique en régime d'écoulement raréfié par méthode de Monte-Carlo." Orléans, 2005. http://www.theses.fr/2005ORLE2017.

Full text
Abstract:
Les études aérothermodynamiques dans le secteur spatial concernent principalement les écoulements hypersoniques (Ma > 5) dans des milieux raréfiés, possédant des propriétés spécifiques. En effet, les engins spatiaux (sondes d'exploration, satellites, navettes spatiales. . . ) évoluent généralement dans un mélange gazeux de faible densité et à des vitesses très élevées (de l'ordre de plusieurs kilomètres par seconde). L'énergie cinétique considérable mise en jeu dans ce type d'écoulements va se transformer, à l'approche de l'engin, en énergie interne, conduisant ainsi à des phénomènes physiques caractéristiques des gaz hautement énergétiques telles que l'excitation vibrationnelle, l'excitation électronique et la chimie. Par ailleurs, la faible densité de l'environnement spatial de l'engin va conduire à un fort déséquilibre thermodynamique. Ces deux aspects font que l'approche macroscopique classique basée sur les équations de Navier – Stokes n'est pas toujours valable pour étudier de tels écoulements et que la résolution de l'équation de Boltzmann va engendrer d'énormes difficultés en vue des phénomènes physiques mis en jeu (chimie. . . ). La méthode de Monte Carlo (" DSMC ") propose alors une alternative tout à fait intéressante pour simuler de tels écoulements. Cette méthode, largement développée par G. A. Bird, est devenue rapidement un outil répandu dans le secteur spatial permettant d'apporter des réponses d'ordre non seulement qualitatif mais également d'ordre quantitatif pour des applications en ingénierie. La méthode est appliquée au cas d'une rentrée atmosphérique martienne dans le cadre de la mission de retour d'échantillons et est également approfondie dans l'objectif de développer un outil de simulation numérique propre au laboratoire.
APA, Harvard, Vancouver, ISO, and other styles
7

Forster, Simon. "Nouveau matériau semi-conducteur à large bande interdite à base de carbures ternaires - Enquête sur Al4SiC4." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI095.

Full text
Abstract:
Les matériaux semi-conducteurs à large bande interdite sont capables de résister aux environnements difficiles et de fonctionner dans une large plage de températures. Celles-ci sont idéales pour de nombreuses applications telles que les capteurs, la haute puissance et les radiofréquences.Cependant, des matériaux plus nouveaux sont nécessaires pour atteindre une efficacité énergétique significative dans diverses applications ou pour développer de nouvelles applications destinées à compléter les semi-conducteurs à bande interdite tels que le GaN et le SiC.Dans cette thèse, trois méthodes différentes sont utilisées pour étudier l’un de ces nouveauxmatériaux, carbure d'aluminium et de silicium (Al4SiC4): (1) simulations d'ensemble de Monte Carloafin d'étudier les propriétés de transport d'électrons du nouveau carbure ternaire, (2)études expérimentales pour déterminer ses propriétés matérielles et (3) simulations de dispositifsd'un dispositif à hétérostructure rendu possible par ce carbure ternaire. Toutes ces méthodesinterconnecter les uns avec les autres. Les données de chacun d’eux peuvent alimenter l’autre pour acquérir de nouvelles connaissances.résultats ou affiner les résultats obtenus conduisant ainsi à des propriétés électriques attrayantes telles qu’une bande interdite de 2,78 eV ou une vitesse de dérive maximale de 1,35 × 10 cm s.Ensemble Monte Carlo, développé en interne pour les simulations de Si, Ge, GaAs,AlxGa1-xAs, AlAs et InSb; est adopté pour les simulations du carbure ternaire en ajoutant untransformation de la nouvelle vallée pour tenir compte de la structure hexagonale de Al4SiC4. Nous prédisonsune vitesse maximale de dérive des électrons de 1,35 × 107 cm-1 à un champ électrique de 1400 kVcm-1 et une mobilité maximale des électrons de 82,9 cm V s. Nous avons vu une constante de diffusion de 2,14 cm2s-1 à un champ électrique faible et de 0,25 cm2s-1 à un champ électrique élevé. Enfin nousmontrer que Al4SiC4 a un champ critique de 1831 kVcmOn utilise des cristaux semi-conducteurs qui avaient été cultivés auparavant à l’IMGP, l’un par la croissance en solution et l’autre par la fusion en creuset. Trois expériences différentes sont effectuées sur eux; (1) spectroscopie UV, IR et visuelle, (2) spectroscopie photographique à rayons X, et (3) mesures à deux et à quatre sondes dans lesquelles un contact métallique est formé sur les cristaux. Nous avons trouvé ici une bande interdite de spectroscopie UV, IR et Vis de 2,78 ± 0,02 eV et une couche d’oxyde épaisse sur les échantillons en utilisant du XPS. Malheureusement, les mesures à deux et à quatre sondes n'ont donné aucun résultat autre que le bruit, probablement en raison de l'épaisse couche d'oxyde trouvée sur les échantillons.Dans les simulations de dispositifs, le logiciel commercial Atlas de Silvaco est utilisé pour prédire les performances des dispositifs à hétérostructure, avec des longueurs de grille de 5, 2 et 1 µm, rendues possibles par le carbure ternaire en combinaison avec du SiC. Le transistor à hétérostructure SiC / Al4SiC4 d'une longueur de grille de 5 µm délivre un courant de drain maximal de 1,68 × 10−4 A / µm, qui passe à 2,44 × 10−4 A / µm et à 3,50 × 10−4 A / µm pour des longueurs de grille de 2 µm et 1 µm, respectivement. La tension de claquage de l'appareil est de 59,0 V, ce qui réduit à 31,0 V et à 18,0 V les transistors mis à l'échelle des longueurs de grille de 2 µm et de 1 µm. Le dispositif à longueur de grille réduite de 1 μm bascule plus rapidement en raison de la transconductance supérieure de6,51 × 10−5 S / μm par rapport à une fois par an1,69 × 10−6 S / μm pour le plus grand périphérique.Enfin, une pente inférieure au seuil des dispositifs mis à l'échelle est égale à 197,3 mV / dec, 97,6 mV / dec et 96,1 mV / dec pour des longueurs de grille de 5 µm, 2 µm et 1 µm, respectivement
Wide bandgap semiconductor materials are able to withstand harsh environments and operate over a wide range of temperatures. These make them ideal for many applications such as sensors, high-power and radio-frequencies to name a few.However, more novel materials are required to achieve significant power efficiency of various applications or to develop new applications to complement current wide bandgap semiconductors such as GaN and SiC.In this dissertation, three different methods are used to study one of these novelmaterials, aluminium silicon carbide (Al4SiC4): (1) ensemble Monte Carlo simulationsin order to study the electron transport properties of the novel ternary carbide, (2)experimental studies to determine its material properties, and (3) device simulationsof a heterostructure device made possible by this ternary carbide. All these methodsinterlink with each other. Data from each of them can feed into the other to acquire newresults or refine obtained results thus leading way to attractive electrical properties such as a bandgap of 2.78 eV or a peak drift velocity of 1.35×10 cm s .Ensemble Monte Carlo toolbox, developed in-house for simulations of Si, Ge, GaAs,AlxGa1−xAs, AlAs, and InSb; is adopted for simulations of the ternary carbide by adding anew valley transformation to account for the hexagonal structure of Al4SiC4. We predicta peak electron drift velocity of 1.35×107 cms−1 at electric field of 1400 kVcm−1 and a maximum electron mobility of 82.9 cm V s . We have seen a diffusion constant of 2.14 cm2s−1 at a low electric field and of 0.25 cm2s−1 at a high electric field. Finally, weshow that Al4SiC4 has a critical field of 1831 kVcmsemiconductor crystals are used that had previously been grown at IMGP, one by solution grown and the other by crucible melt. Three different experiments are performed on them; (1) UV, IR and Vis Spectroscopy, (2) X-ray Photo Spectroscopy, and (3) Two- and four-probe measurements where metal contact are grown on the crystals. Here we have found a bandgap of 2.78 ± 0.02 eV UV, IR and Vis Spectroscopy and a thick oxide layer on the samples using XPS. Unfortunately the Two- and four-probe measurements failed to give any results other than noise, most likely due to the thick oxide layer that was found on the samples.In the device simulations, a commercial software Atlas by Silvaco is utilized to predict performance of heterostructure devices, with gates lengths of 5 μm, 2 μm and 1 μm, made possible by the ternary carbide in a combination with SiC. The 5 μm gate length SiC/Al4SiC4 heterostructure transistor delivers a maximum drain current of 1.68×10−4 A/μm, which increases to 2.44×10−4 A/μm and 3.50×10−4 A/μm for gate lengths of 2 μm and 1 μm, respectively. The device breakdown voltage is 59.0 V which reduces to 31.0 V and to 18.0 V for the scaled 2 μm and the 1 μm gate length transistors. The scaled down 1 μm gate length device switches faster because of the higher transconductance of6.51×10−5 S/μmcomparedtoonly1.69×10−6 S/μmforthelargestdevice.Finally,a sub-threshold slope of the scaled devices is 197.3 mV/dec, 97.6 mV/dec, and 96.1 mV/dec for gate lengths of 5 μm, 2 μm, and 1 μm, respectively
APA, Harvard, Vancouver, ISO, and other styles
8

Reilhac-Laborde, Anthonin. "Validation et exploitation d'un simulateur TEP de Monte Carlo." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0071/these.pdf.

Full text
Abstract:
La validation d'algorithmes dédiés au traitement, à la reconstruction ou à l'analyse de données TEP est une étape difficile mais nécessaire. La stratégie généralement suivie consiste à comparer le résultat obtenu avec des données de référence, comme par exemple la cartographie exacte de l'activité présente dans le champ de vue du tomographe ou l'anatomie de l'objet imagé. La connaissance de ces données de référence est difficilement accessible à partir d'images cliniques réelles obtenues par tomographie par émission de positons. En conséquence, l'étape de validation repose souvent sur l'utilisation d'images TEP provenant de l'acquisition de fantômes physiques, de géométries et de contenus connus. Les fantômes physiques utilisés sont cependant souvent des objets de géométries simples (sphère, cylindre), ne permettant pas d'obtenir d'images de radioactivité de distributions spatio-temporelles proches d'images TEP de patients. Une autre possibilité consiste alors à simuler une image TEP à partir d'un fantôme numérique. Cette dernière possibilité offre une grande flexibilité puisque les fantômes numériques peuvent être très complexes et permettent une description réaliste des distributions radioactives rencontrées lors d'acquisitions réelles. En effet, l'objet émetteur peut alors être décrit à partir de données anatomiques réelles. Simuler les processus d'acquisition permet aussi de contrôler les paramètres qui dégradent la qualité de l'image résultant du processus d'acquisition TEP. La simulation d'images TEP réalistes implique donc la génération des données brutes TEP (émission et transmission) à partir de carte d'activités voxelisées, la correction et la reconstruction des données en images TEP 3D ou 4D. Les simulateurs de type Monte Carlo sont généralement utilisés pour la simulation des données brutes puisqu'ils permettent une bonne modélisation des phénomènes physiques ainsi que de la fonction de transfert du tomographe. Cependant, les méthodes de type Monte Carlo peuvent être coûteuse en temps de calcul et en ressources informatiques. PET-SORTEO est une plateforme de simulation, permettant la génération de données TEP brutes réalistes en un temps de calcul acceptable. Cette plateforme est issue d'une collaboration impliquant d'une part le CERMEP à Lyon et d'autre part le McConnell Brain Imaging Centre de l'Institut Neurologique de Montréal (université McGill). La validation du modèle de génération des données TEP, incluant la simulation des projections brutes, la correction et la reconstruction restait à être réalisée. Le but de ce travail de thèse est de a) premièrement valider le modèle de simulation de données TEP de PET-SORTEO, en comparant, selon un certains nombres de critères, des données simulées et réelles obtenues dans des conditions similaires; et de b) deuxièmement exploiter le simulateur pour la conception, le développement et la validation de méthodes de correction et de traitements des données TEP. Ce manuscrit de thèse présente le modèle de simulation de PET-SORTEO, les résultats de validation mais aussi un ensemble d'applications réalisées à ce jour grâce à cet outil
The evaluation of algorithms dedicated to process, reconstruct, or analyze PET data is a challenging task. The common strategy is to compare the algorithm output to a controlled gold standard. A part of the difficulty follows from the unavailability of such ground truth with in vivo data. Consequently, validation often relies on the use of simulated data whose geometry and contents are precisely known. This method provides a great flexibility as it allows the use of realistic numerical phantoms. Also, the ability to control the factors that degrade the image formation is a significant advantage. The aim of this PhD research was to conduct first the validation experiments of the simulation model of a Monte Carlo-based PET simulator (PET-SORTEO) and second, to use the simulator as a tool for the design and development of moethods that aim at improving the quantification of the PET data
APA, Harvard, Vancouver, ISO, and other styles
9

Maigne, Lydia. "Personnalized dosimetry using GATE Monte Carlo simulations on a grid architecture." Clermont-Ferrand 2, 2005. http://www.theses.fr/2005CLF21607.

Full text
Abstract:
Le but était d'optimiser la plate-forme de simulation Monte Carlo GATE ( Geant 4 Application for Tomographic Emission) pour fournir des planifications de traitements en dosimétrie précises, personnalisées et rapides. Une application à la curiethérapie oculaire est présentée. Une validation du logiciel GEANT4 est effectuée avec une modélisation de points sources émetteurs d'électrons. L'implémentation du processus de diffusion multiple doit être encore corrigé dans les prochaines versions de GEANT4. La transcription des unités Hounsfield en paramètres tissulaires est présentée pour une utilisation de GATE sur des images voxélisées. Les distributions de dose obtenues avec GATE pour les traitements de curiethérapie oculaire sont comparées et validées. Un déploiement de GATE sur grille de calcul est effectué, le gain en temps de calcul est très significatif. Un portail web d'accès convivial à la grille a été développé
APA, Harvard, Vancouver, ISO, and other styles
10

Szkolnik, Jean-Jacques. "Application des méthodes de Monte-Carlo séquentielles à l'extraction de trames radar." Brest, 2004. http://www.theses.fr/2004BRES2023.

Full text
Abstract:
L'objectif de la présente étude consiste à déterminer un algorithme capable d'assurer l'extraction aveugle des impulsions issues d'un même radar et de caractériser la séquence d'évolution de leurs paramètres caractéristiques. Nous explicitons précisément le contexte et la nature physique des impulsions, les paramètres qui les caractérisent, ainsi que les diverses modulations des paramètres prises en compte afin d'aboutir à une formulation d'état des trames radar. On s'intéresse ensuite aux méthodes actuelles implémentées sur les matériels opérationnels et dressons un état de l'art de la recherche en la matière au travers des publications libres paraissant sur le sujet. Nous dégageons et justifions notre propre axe de recherche constitué par l'application des méthodes particulaires à la problématique précédemment décrite. Nous détaillons les théories de Monte-Carlo séquentielles, leurs limitations, les procédés mis en œuvre pour y remédier, leur adaptation à l'extration de trames radar et en déduisons un module de désentrelacement générique explicité à partir des temps d'arrivée des impulsions (TOA). L'intégration de nouvelles modulations est améliorée en intégrant une variante de la transformation "unscented". Nous étendons ensuite les concepts utilisés à des modules d'extraction spécifiés à partir d'autres paramètres primaires. Nous donnons un exemple du degré de complexité de scénarii susceptibles d'être traités à partir de l'association de deux modules d'extraction fonctionnant pour le premier à partir des TOA et pour le second à partir d'un autre paramètre. Nous terminons par une série d'évaluations du module d'extraction destinées à en déterminer le domaine d'emploi
The purpose of this study consists in determining an algorithm able to ensure the blind extraction of pulses resulting from the same radar system and to characterize the sequence evolution of their characteristic parameters. We precisely explicit the context and the physical nature of the pulses, the parameters which characterize them and the various parameter modulations taken into account, in order to lead to a radar pulse train state formulation. Then, we deal with the current method limitations implemented on operational equipments and draws up the state of the art of research on the matter through free publications appearing on the subject. We release and justify our own research orientation relying on the application of the particle methods to the previously described problems. We detail Monte-Carlo sequential theories, their limitations and additional techniques used to overcome drawbacks. We stipulate the adaptation of the presented techniques to our problem in order to deduce the formulation of a generic deinterleaving module specified exclusively from pulse times of arrival (TOA). The extraction module adaptation capabilities to news modulations, possibly nonlinear, are improved by integrating the unscented transformation. We extend then the concepts used for the TOA extraction module to new extraction modules specified from the other parameters. We give an example of scenario complexity degree likely to be processed with the association of two extraction modules running for the first from TOA and for the second from an other parameter. Finally the last part is dedicated to a series of extraction module evaluations intended to determine its application field
APA, Harvard, Vancouver, ISO, and other styles
11

Dubois, Vincent. "Simulations Monte Carlo de petits agrégats d'argent en solution aqueuse." Paris 11, 2002. http://www.theses.fr/2002PA112164.

Full text
Abstract:
Nous avons étudié les petits agrégats d'argent en solution aqueuse à l'aide de simulations Monte Carlo couplées à un formalisme Valence-Bond. L'agrégation de l'argent en solution aqueuse a déjà été étudiée à l'aide de la radiolyse pulsée, mais le mécanisme de cette agrégation reste mal connu, en particulier les premières étapes. L'objectif de ce travail théorique a été de fournir des informations sur le processus d'agrégation. Nous nous sommes intéressés aux deux points suivants : Les potentiels redox des couples Agn+/Agn sont un paramètre essentiel de l'interprétation de nombreuses réactions, comme par exemple le développement photographique. Mais pour les petits agrégats, ces potentiels ne sont pas connus et ce travail a permis de proposer une valeur de la différence des potentiels redox entre n=1 et n=2. Dans le cadre de ces calculs de potentiels redox, nous avons comparé plusieurs méthodes de calcul d'énergie libre. Nous avons alors montré que la méthode des histogrammes multiples auto-cohérents est la mieux adaptée au cas de la mutation d'un neutre en cation. En s'appuyant sur des expériences de radiolyse pulsée, Heinglein et collaborateurs ont proposé la formation de Ag3(2+) au cours de l'agrégation de l'argent. La stabilité de Ag3(2+) peut paraître mystérieuse étant donné que la répulsion des charges est importante et que cet agrégat possède un seul électron de liaison. Nous nous sommes alors intéressés à Ag3(2+), mais en imposant des contraintes géométriques afin de limiter la complexité des potentiels. Ces premiers travaux ont montré d'une part que cet agrégat est stable en solution et d'autre part que la barrière d'énergie de formation est importante, la réaction Ag(+) + Ag2(+) --> Ag3(2+) semble donc impossible à température ambiante. Cependant, il reste encore des améliorations à apporter, et une simulation sans contraintes géométriques peut modifier cette conclusion
We have studied silver clusters in aqueous solution with the help of Monte Carlo simulations coupled with a Valence-Bond formalism. Silver aggregation has already been investigated, but the mechanism of this aggregation remains poorly known, especially it's the first steps. The aim of this present theoretical work has been to provide informations on the process of aggregation. We have investigated the following two points: The redox potential of the couples Agn(+)/Agn is an essential parameter of the interpretation of numerous reactions, like the photographic development. The potentials of the small clusters are not known. We have evaluated the difference of the redox potential between n=1 and n=2. For the calculation of redox potentials, we have compared three methods of free energy calculation. We have shown that the self-consistent histograms method is the most reliable in the case of mutation from a neutral into a cation. With the help of pulse radiolysis, Heinglein and co-workers have proposed the formation of Ag3(2+). The formation of Ag3(2+) seems mysterious because this cluster displays a large charge repulsion and only one valence electron. We have studied Ag3(2+) in water with geometrical constraints to limit the complexity of the potential. These preliminary works show that on the one hand this cluster is metastable in solution and on the other hand that the formation energy barrier is important. Therefore the reaction Ag(+) + Ag2(+) --> Ag3(2+) seems impossible at room temperature. However, simulations without any constraints may change this conclusion
APA, Harvard, Vancouver, ISO, and other styles
12

Gilquin, Laurent. "Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM042/document.

Full text
Abstract:
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus
Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented
APA, Harvard, Vancouver, ISO, and other styles
13

Brunet, Charles. "Parallélisation des algorithmes de Monte-Carlo multicanoniques." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29397/29397.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
APA, Harvard, Vancouver, ISO, and other styles
15

Chabot, Martin. "Le Bootstrap comme méthode d'estimation du r de Pearson, une étude Monte Carlo." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/mq25286.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Rimmel, Arpad. "Improvements and Evaluation of the Monte Carlo Tree Search Algorithm." Paris 11, 2009. http://www.theses.fr/2009PA112223.

Full text
Abstract:
Ma thèse se situe dans le contexte de la planification à horizon fini en environnement discret avec un nombre d'états trop important pour qu'ils soient tous explorés. L'objectif est de maximiser une fonction de récompense qui associe une valeur aux états finaux. Cette thèse est en particulier centrée sur l'amélioration et l'étude d'un nouvel algorithme: l'exploration d'arbre basée sur une formule de bandit avec évaluation Monte Carlo. Après avoir présenté les algorithmes de référence du domaine (Minimax et Alphabéta dans le cas deux joueurs; Nested Monte Carlo et Programmation Dynamique dans le cas un joueur), je décris le principe de l'algorithme. Puis je propose une méthode de parallélisation efficace pour le cas ou la mémoire est séparée. Cette méthode se combine avec des méthodes classiques de parallélisation à mémoire partagée. Je propose ensuite une méthode pour construire une base d'ouverture et montre son efficacité dans le cadre concret du jeu de Go. J'introduis également plusieurs manières d'utiliser des connaissances expertes, aussi bien dans la partie concernant les bandits que dans la partie Monte Carlo. Finalement, je montre que cet algorithme qui donne de très bons résultats dans le cadre des applications à deux joueurs est également efficace dans un cadre à un joueur. En effet, je propose une adaptation de l'algorithme pour le cas des graphes et en utilisant une formule de bandit différente afin de résoudre le problème concret de la génération automatique de librairies de transformations linéaires. J'obtiens des résultats nettement supérieurs à ceux obtenus avec une méthode classique de programmation dynamique
My thesis deals with planification in a discrete environment with finite horizon and with a number of states too large to be explored entirely. The goal is to maximize a reward function that associates a value to final states. This thesis focuses on particular on improving and evaluating a new algorithm: bandit-based Monte Carlo tree search. After presenting the state of the art (Minimax and Alphabeta for the two-players case; nested Monte Carlo and Dynamic Programing for the one-player case), I describe the principle of the algorithm. Then, I propose an efficient parallelization method for the case of separated memories. This method can be combined with classical parallelization methods for shared memories. I propose also a way of constructing an opening book and show its efficiency in the concrete case of the game of Go. I introduce also several ways of using expert knowledge, in the part concerning bandits as well as in the Monte Carlo part. Finally, I show that this algorithm that gives very good results in the context of two-players applications is also efficient in a one-player context. I propose an adaptation of the algorithm in order to handle graphs and use a different bandit formula in order to solve the problem of the automatic generation of linear transforms libraries. I obtain results much better than by using a classical dynamic programming algorithm
APA, Harvard, Vancouver, ISO, and other styles
17

Andral, Charly. "Quelques contributions aux méthodes de Monte Carlo en statistique." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLD049.

Full text
Abstract:
Les méthodes de Monte Carlo sont largement utilisées en statistique pour estimer des quantités qui ne peuvent pas être calculées analytiquement. Dans cette thèse, nous étudions diverses approches pour améliorer l'efficacité des méthodes de Monte Carlo et établir des liens entre différentes techniques.Dans la première partie, nous relions les méthodes de Monte Carlo par chaînes de Markov avec l'échantillonnage par rejet et l'échantillonnage préférentiel pour proposer un nouvel algorithme, l'Importance Markov Chain. Pour cet algorithme, nous fournissons une analyse théorique de ses propriétés de convergence en établissant une loi des grands nombres, un théorème central limite et un résultat d'ergodicité géométrique. Nous présentons également une étude numérique pour illustrer la performance de l'Importance Markov Chain.Dans la deuxième partie, nous combinons les flots normalisants avec les méthodes de quasi-Monte Carlo randomisées pour améliorer le taux de convergence de l'estimateur. Nous testons notre méthode sur quelques exemples et montrons qu'elle peut surpasser les méthodes de Monte Carlo standard sur des problèmes de faible dimension. Cependant, la performance de la méthode diminue lorsque la dimension du problème augmente.Dans la troisième et dernière partie, nous couvrons une autre classe de méthodes de Monte Carlo, les processus de Markov déterministes par morceaux. Nous proposons un nouvel algorithme pour échantillonner à partir de ces processus et fournissons une preuve théorique de la validité de la méthode. Nous fournissons plusieurs expériences numériques pour illustrer la performance de l'algorithme. Il surpasse les autres algorithmes d'échantillonnage PMDP en termes de coût computationnel et de robustesse lorsque le potentiel n'est pas convexe
Monte Carlo methods are extensively utilized in statistics for estimating quantities that cannot be analytically. In this thesis, we investigate various approaches to enhance the efficiency of Monte Carlo methods and establish connections between different techniques.In the first part, we connect Markov chain Monte Carlo methods with rejection sampling and important sampling to propose a new algorithm, the Importance Markov Chain. For this algorithm, we provide a theoretical analysis of its convergence properties by establishing a law of large numbers, a central limit theorem and a geometric ergodicity result. We also provide a numerical study to illustrate the performance of the Importance Markov Chain.In the second part, we combine normalizing flows with randomized quasi-Monte Carlo methods to improve the convergence rate of the estimator. We test our method on some examples and show that it can outperform standard Monte Carlo methods on low dimensional problems. However, the performance of the method decays when the dimension of the problem increases.In the third and final part, we cover another class of Monte Carlo methods, the piecewise deterministic Markov processes. We propose a new algorithm to sample from these processes and provide a theoretical proof of the correctness of the method. We provide several numerical experiments to illustrate the performance of the algorithm. It outperforms other PMDPs sampling algorithms in terms of computational cost and robustness when the potential is not convex
APA, Harvard, Vancouver, ISO, and other styles
18

Karagulyan, Avetik. "Sampling with the Langevin Monte-Carlo." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAG002.

Full text
Abstract:
L’échantillonnage des lois aléatoires est un problème de taille en statistique et en machine learning. Les approches générales sur ce sujet sont souvent divisées en deux catégories: fréquentiste vs bayésienne. L’approche fréquentiste corresponds à la minimisation du risque empirique, c’est à dire à l’estimation du maximum vraisemblance qui est un problème d’optimisation, tandis que l’approche bayésienne revient à intégrer la loi postérieure. Cette dernière approche nécessite souvent des méthodes approximatives car l’intégrale n’est généralement pas tractable. Dans ce manuscrit, nous allons étudier la méthode de Langevin, basée sur la discrétisation de l’EDS de Langevin. La première partie de l’introduction pose le cadre mathématique et l’intérêt d’étudier plus avant la question de l'échantillonnage. La suite de l’introduction s’attache à la présentation des méthodes d’échantillonnage.Le premier article concerne les bornes non-asymptotiques sur la convergence en distance de Wasserstein de Langevin Monte-Carlo pour les fonctions de potentiel lisses et fortement convexes. Nous établissons d’abord des bornes explicites pour LMC avec des step-sizes variantes?. Puis nous étudions la convergence pour des fonctions de potentiel avec des gradients stochastiques. Enfin, deux types de discrétisation sont présentés, pour les potentiels plus réguliers.Dans la deuxième article nous abordons le problème d’échantillonnage de loi log-concave (pas fortement) en utilisant LMC, KLMC et KLMC2. Nous proposons une pénalisation quadratique constante de la fonction de potentiel. Puis nous prouvons des bornes non-asymptotiques sur l’erreur de Wasserstein de ces méthodes pour le choix de pénalisation optimale. Enfin, nous soulignons l’importance du choix de l’échelle pour le mesurage des complexités des différentes méthodes.La troisième contribution principales est concentrée sur la convergence de la diffusion de Langevin dans le case log-concave. Une pénalisation variable dans le temps est proposée pour la fonction de potentiel. Nous prouvons des bornes explicites pour cette méthode nommée Penalized Langevin Dynamics. A la fin, le lien entre les algorithmes de Langevin et l’optimisation convexe est établi, ce qui nous permet de prouver des bornes similaires pour le gradient flow
Sampling from probability distributions is a problem of significant importance in Statistics and Machine Learning. The approaches for the latter can be roughly classified into two main categories, that is the frequentist and the Bayesian. The first is the MLE or ERM which boils down to optimization, while the other requires the integration of the posterior distribution. Approximate sampling methods are hence applied to estimate the integral. In this manuscript, we focus mainly on Langevin sampling which is based on discretizations of Langevin SDEs. The first half of the introductory part presents the general mathematical framework of statistics and optimization, while the rest aims at the historical background and mathematical development of sampling algorithms.The first main contribution provides non-asymptotic bounds on convergence LMC in Wasserstein error. We first prove the bounds for LMC with the time-varying step. Then we establish bounds in the case when the gradient is available with a noise. In the end, we study the convergence of two versions of discretization, when the Hessian of the potential is regular.In the second main contribution, we study the sampling from log-concave (non-strongly) distributions using LMC, KLMC, and KLMC with higher-order discretization. We propose a constant square penalty for the potential function. We then prove non-asymptotic bounds in Wasserstein distances and provide the optimal choice of the penalization parameter. In the end, we highlight the importance of scaling the error for different error measures.The third main contribution focuses on the convergence properties of convex Langevin diffusions. We propose to penalize the drift with a linear term that vanishes over time. Explicit bounds on the convergence error in Wasserstein distance are proposed for the PenalizedLangevin Dynamics and Penalized Kinetic Langevin Dynamics. Also, similar bounds are proved for the Gradient Flow of convex functions
APA, Harvard, Vancouver, ISO, and other styles
19

Helmstetter, Bernard. "Analyses de dépendances et méthodes Monte-Carlo dans les jeux de réflexion." Paris 8, 2007. http://octaviana.fr/document/126279233#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Nous explorons deux familles de techniques de programmation des jeux de réflexion : des techniques de Monte-Carlo et des techniques de recherche permettant d'exploiter la faible dépendance entre différentes parties d'un jeu. Ces techniques sont appliquées à des jeux à un ou deux joueurs : un jeu de patience à un joueur appelé Montana, le jeu de Go, et un puzzle à un joueur appelé le Morpion solitaire. Nous présentons un algorithme appelé transpositions incrémentales, que nous appliquons d'abord à Montana ; nous y appliquons aussi un algorithme appelé recherche par blocs. Nous abordons, au Go, la transitivité des connexions, et nous développons l'approche de Monte-Carlo, obtenant un programme particulièrement simple. Au Morpion solitaire, l'application de l'algorithme des transpositions incrémentales combiné à une parallélisation de la recherche mène à un record pour une variante de ce jeu
We explore two families of game programming methods: Monte-Carlo methods, and methods that exploit the weak dependencies between parts of a game. Those methods are applied to one and two-player games: a solitaire card game called Montana, the game of Go, and a one-player puzzle called Morpion solitaire. We describe an algorithm called incremental transpositions which we first apply to Montana; we also apply an algorithm called block search. We study the transitivity of connections in the game of Go and we develop the Monte-Carlo approach, which make a particularly simple program. On Morpion solitaire, applying the algorithm of incremental transpositions and combining with a parallelized search allows us to find a new record for a variant of the game
APA, Harvard, Vancouver, ISO, and other styles
20

Janati, el idrissi Yazid. "Monte Carlo Methods for Machine Learning : Practical and Theoretical Contributions for Importance Sampling and Sequential Methods." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS008.

Full text
Abstract:
Cette thèse contribue au vaste domaine des méthodes de Monte Carlo avec de nouveaux algorithmes visant à traiter l'inférence en grande dimension et la quantification de l'incertitude. Dans une première partie, nous développons deux nouvelles méthodes pour l'échantillonnage d'importance. Le premier algorithme est une nouvelle loi de proposition, basée sur sur des étapes d'optimisation et de coût de calcul faible, pour le calcul des constantes de normalisation. L'algorithme résultant est ensuite étendu en un nouvel algorithme MCMC. Le deuxième algorithme est un nouveau schéma pour l'apprentissage de propositions d'importance adaptées aux cibles complexes et multimodales. Dans une deuxième partie, nous nous concentrons sur les méthodes de Monte Carlo séquentielles. Nous développons de nouveaux estimateurs de la variance asymptotique du filtre à particules et fournissons le premier estimateur de la variance asymptotique d'un lisseur à particules. Ensuite, nous proposons une procédure d'apprentissage des paramètres dans les modèles de Markov cachés en utilisant un lisseur à particules dont le biais est réduit par rapport aux méthodes existantes. Enfin, nous concevons un algorithme de Monte Carlo séquentiel pour résoudre des problèmes inverses linéaires bayésiens avec des lois a priori obtenues par modèles génératifs
This thesis contributes to the vast domain of Monte Carlo methods with novel algorithms that aim at adressing high dimensional inference and uncertainty quantification. In a first part, we develop two novel methods for Importance Sampling. The first algorithm is a lightweight optimization based proposal for computing normalizing constants and which extends into a novel MCMC algorithm. The second one is a new scheme for learning sharp importance proposals. In a second part, we focus on Sequential Monte Carlo methods. We develop new estimators for the asymptotic variance of the particle filter and provide the first estimator of the asymptotic variance of a particle smoother. Next, we derive a procedure for parameter learning within hidden Markov models using a particle smoother with provably reduced bias. Finally, we devise a Sequential Monte Carlo algorithm for solving Bayesian linear inverse problems with generative model priors
APA, Harvard, Vancouver, ISO, and other styles
21

Coulibaly, Ibrahim. "Contributions à l'analyse numérique des méthodes quasi-Monte Carlo." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004933.

Full text
Abstract:
Les méthodes de type quasi-Monte Carlo sont des versions déterministes des méthodes de Monte Carlo. Les nombres aléatoires sont remplacés par des nombres déterministes qui forment des ensembles ou des suites à faible discrepance, ayant une meilleure distribution uniforme. L'erreur d'une méthode quasi-Monte Carlo dépend de la discrepance de la suite utilisée, la discrepance étant une mesure de la déviation par rapport à la distribution uniforme. Dans un premier temps nous nous intéressons à la résolution par des méthodes quasi-Monte Carlo d'équations différentielles pour lesquelles il y a peu de régularité en temps. Ces méthodes consistent à formuler le problème avec un terme intégral pour effectuer ensuite une quadrature quasi-Monte Carlo. Ensuite des méthodes particulaires quasi-Monte Carlo sont proposées pour résoudre les équations cinétiques suivantes : l'équation de Boltzmann linéaire et le modèle de Kac. Enfin, nous nous intéressons à la résolution de l'équation de la diffusion à l'aide de méthodes particulaires utilisant des marches quasi-aléatoires. Ces méthodes comportent trois étapes : un schéma d'Euler en temps, une approximation particulaire et une quadrature quasi-Monte Carlo à l'aide de réseaux-$(0,m,s)$. A chaque pas de temps les particules sont réparties par paquets dans le cas des problèmes multi-dimensionnels ou triées si le problème est uni-dimensionnel. Ceci permet de démontrer la convergence. Les tests numériques montrent pour les méthodes de type quasi-Monte Carlo de meilleurs résultats que ceux fournis par les méthodes de type Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
22

Melenev, Petr. "Simulations Monte Carlo de propriétés structurales et magnétiques d'agrégats de nanoparticules." Paris 6, 2011. http://www.theses.fr/2011PA066162.

Full text
Abstract:
Ce travail est une étude théorique par la méthode de Monte Carlo Metropolis (MCM) de nanoparticules (NPs) ferromagnétiques individuelles ou agrégées, sujettes à un comportement supermagnétique. La méthode MCM est utilisée pour décrire des propriétés à l’équilibre, mais la séquence d’états par lesquels passe le système dans la simulation avant d’atteindre l’équilibre ressemble beaucoup aux processus cinétiques réels. Cela s’avère être un moyen efficace d’étudier des phénomènes hors-équilibre dans les nanosystèmes magnétiques. Après construction de modèles d’agrégats multi-particules et rappel de leurs propriétés magnétiques dans l’état fondamental, le problème de la relaxation libre du moment magnétique est abordé. La quantification temporelle de la méthode MCM proposée par Nowak et al. Est ici modifiée de façon à introduire explicitement l’anisotropie magnétique des NPs. La même approche est ensuite utilisée pour décrire la relaxation superparamagnétique d’une NP sous un champ bias constant. Finalement la méthode MCM est appliquée à un processus hautement hors-équilibre, l’hystérésis magnétique dynamique d’une NP sous un fort champ alternatif. Les résultats MCM sont comparés aux solutions exactes de l’équation cinétique de Brown. D’une part les simulations MCM sont capables de très bien reproduire les dépendances exactes de l’aimantation de l’ensemble de NPs, d’autre part dans le cas de l’hystérésis dynamique la simulation MCM obéit à une règle spécifique. Quand on simule un cycle par une série de pas de champs avec un nombre d’itérations MCM à chaque pas, chacun de ces deux facteurs peut être choisi arbitrairement tant que leur produit est gardé contant
APA, Harvard, Vancouver, ISO, and other styles
23

Nemirovsky, Danil. "Monte Carlo methods and Markov chain based approaches for PageRank computation." Nice, 2010. http://www.theses.fr/2010NICE4018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Maire, Sylvain. "Quelques Techniques de Couplage entre Méthodes Numériques Déterministes et Méthodes de Monte-Carlo." Habilitation à diriger des recherches, Université du Sud Toulon Var, 2007. http://tel.archives-ouvertes.fr/tel-00579977.

Full text
Abstract:
Les travaux présentes s'inscrivent dans le cadre de la réduction de variance pour les méthodes de Monte-Carlo et plus généralement dans l'optimisation de méthodes numériques à l'aide de couplage entre des méthodes déterministes et des méthodes probabilistes. Trois thèmes principaux seront abordés à l'aide de ces techniques: l'intégration numérique sur un hypercube, la résolution d' équations aux dérivées partielles linéaires et le calcul des éléments propres principaux (valeur propre et vecteur propre) de certains opérateurs linéaires.
APA, Harvard, Vancouver, ISO, and other styles
25

Mertz, Helene. "Modélisation des réactions chimiques dans un code de simulation par la méthode Monte Carlo." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV012/document.

Full text
Abstract:
Les méthodes Direct Simulation Monte Carlo (DSMC) sont utilisées par Ariane group pour calculer les torseurs d'efforts aérodynamiques et les flux thermiques sur les engins spatiaux pour des écoulements hypersoniques en milieu raréfié.Afin de pouvoir caractériser la dislocation des étages de lanceurs et donc l'empreinte de retombée de débris, une modélisation précise des mécanismes générateurs de flux thermiques est nécessaire. Les réactions chimiques étant dimensionnantes pour le calcul du flux thermique, l'objectif de cette thèse est de développer l'outil de calcul avec la méthode DSMC nommé IEMC de manière à pouvoir prendre en compte les écoulements réactifs.Deux modèles de chimie sont mis en place pour pouvoir prendre en compte la totalité des réactions. Après leur vérifications sur des cas élémentaires, ils sont appliqués et validés sur des cas tests de rentrée pour différentes atmosphères. Les différents modèles considérés sont testés afin d'évaluer leur influence. Les modèles de chimie dépendent de nouveaux paramètres d'entrée, dont les valeurs numériques sont incertaines. Une étude de quantification de leur incertitude est menée et a permis de vérifier que les grandeurs de sorties de la simulation avec un écoulement réactif, notamment le flux thermique, n'est que peu impacté par ces paramètres incertains
Direct Simulation Monte Carlo (DSMC) methods are used in Ariane group to compute aerodynamic forces and moments and heat fluxes on space objects for hypersonic flows in rarefied regimes.To caracterise the dislocation of the stages and the debris footprints, a precise modelisation of the mechanism that contribute to the heat flux is necessary. The contribution of the chemical reactions is important for the determination of the heat flux. The purpose of this thesis is to develop the in house IEMC tool using the DSMC method so that it can compute reactive flows.The different steps of the developments are presented in this work. The first step is the presentation, implementation and verification of two different chemistry models. They are validated for simulations on real test cases. Different models are tested in order to evaluate their effect. Chemical models implemented in the code depend on new input parameters, whose numerical data are uncertain. Using a uncertainty quantification study, it is shown that the output data of the reactive simulation, especially the heat flux, is weakly impacted by the tested uncertain parameters
APA, Harvard, Vancouver, ISO, and other styles
26

Coulot, Jérémy. "Dosimétrie des émetteurs bêta à l'échelle tissulaire et cellulaire par méthode de Monte-Carlo." Paris 11, 2004. http://www.theses.fr/2004PA11T061.

Full text
Abstract:
La dosimétrie interne est nécessaire à la fois dans le cadre de la radioprotection et dans celui de la thérapie. Pour calculer la dose, le physicien a ainsi le choix entre différents outils dosimétriques incluant des fantômes mathématiques, des algorithmes de calculs, et un formalisme de référence, mis au point, entre autres, par le comité du Medical Internal Radiation Dose (MIRD). Cependant, ces outils s'avèrent limités lorsqu'on s'intéresse aux émetteurs (β, et en particulier lorsque ces derniers sont distribués de façon hétérogène dans l'organisme. Si beaucoup de travaux ont été menés dans le but de mieux comprendre les conséquences dosimétriques de cette hétérogénéité à l'échelle tissulaire et cellulaire, il n'existe peu ou pas de méthodologie générale à l'image de celle utilisée à l'échelle de l'organe. Dans ce travail, nous avons tenté d'élaborer une méthode incluant tous les paramètres physiques et biologiques susceptibles d'influencer les dépôts de dose, en développant des outils basés sur la méthode de Monte Carlo. Nous avons dans un premier temps adapté et validé aux échelles requises un code de calcul écrit à l'Institut Gustave Roussy (DOSE3D), et développé un programme dédié à la représentation mathématique de structures biologiques, CLUSTER3D. Nous avons ainsi pu mettre au point une représentation mathématique de la structure vésiculaire de la thyroïde, afin de mettre en évidence les conséquences dosimétriques de l'hétérogénéité de la distribution de différents isotopes radioactifs de l'iode. Néanmoins, la détermination précise de la distribution de dose nécessite l'utilisation de données biologiques quantitatives pertinentes. Dans ce cadre, nous avons entrepris de caractériser la distribution d'un anticorps radiomarqué (⁹⁰Y-Zevalin™), à l'aide de la microautoradiographie numérique. Les résultats obtenus représentent la première étape indispensable d'une étude dosimétrique qui permettra, grâce aux outils mathématiques développés, de mieux anticiper les effets des traitements en radioimmunothérapie, mais aussi de mieux appréhender les caractéristiques dosimétriques in vivo des émetteurs bêta en général
Internal dosimetry is necessary both for radiation protection and for therapy. To calculate the dose, the physicist uses different dosimetric tools, including mathematical phantoms and algorithm, and a reference formalism, provided in part by the Medical Internal Radiation Dose (MIRD) comity. However, these tools are limited when focusing on beta emitters, particularly when they are heterogeneously distributed in tissues. Although many studies have been performed to assess the dosimetric consequences of such heterogeneity at the tissue and cellular level, there is a lack of tools as general as those developed at the organ level. In the present work, we established a global method to solve these problems, based on the Monte Carlo method. First, we adapted and validated at the required length scales a Monte Carlo particle transport code written at the Institut Gustave-Roussy (DOSE3D). Then, we developed a software dedicated to the mathematical description of biological structures, CLUSTER3D. These tools allowed us to define a mathematical model of the follicular structure of the thyroid gland, and to investigate the dosimetric consequences of a heterogeneous distribution of radioiodine isotopes in the thyroid. Finally, we present the study of the biological distribution of a radiolabeled monoclonal anti­body (⁹⁰Y-Zevalin™), using digital autoradiography. Results represent the first mandatory step of a dosimetric study which will allows, using the developed tools, a better understanding of radioim­munotherapy treatments consequences
APA, Harvard, Vancouver, ISO, and other styles
27

El, Idrissi Hassan. "Etude de la capacité SIS GaAs/AlGaAs/GaAs par la méthode de Monte-Carlo." Lille 1, 1993. http://www.theses.fr/1993LIL10016.

Full text
Abstract:
Les besoins de la logique rapide ont nécessité l'utilisation de nouveaux composants tels que les transistors à effet de champ à grille isolée du type MISFET et SISFET GaAs/AlGaAs. L'effet de capacite SIS GaAs/AlGaAs/GaAs est l'élément de base dans ces transistors. Pour estimer plus précisément les performances que l'on peut attendre de ces dispositifs, et optimiser leur fonctionnement, une étude plus poussée des structures SIS semble nécessaire. Pour décrire rigoureusement les phénomènes de transport dans les capacités SIS, nous avons choisi un modèle de type Monte-Carlo. Le modèle électronique utilisé est basé sur une représentation classique de la dynamique électronique en trois dimensions. Nous nous sommes intéressés plus particulièrement aux caractéristiques statiques et aux phénomènes de bruit de diffusion. Dans la première partie, nous exposons le modèle utilisé et la méthode de simulation. Nous présentons la dynamique électronique en précisant les hypothèses que comporte le modèle. La deuxième partie est consacrée aux résultats de la simulation statique de la capacité SIS. Nous décrivons son fonctionnement à travers les grandeurs physiques obtenues. Pour valider notre modèle, nous avons comparé nos résultats avec ceux de l'expérience. Les capacités SIS ayant servi dans les expérimentations ont été entièrement réalisées à l'IEMN-DHS. Les comparaisons expérience-théorie sont satisfaisantes. En dernière partie, l'étude de bruit de diffusion a été faite par référence avec celle de la diode GaAs N+nn+. Nous proposons aussi une manière de déterminer le spectre de bruit en basse fréquence avec une méthode basée sur l'analogie avec la méthode de détermination du coefficient de diffusion par étalement de paquet. Appliquée au calcul du spectre de bruit de la diode GaAs N+nn+, elle donne de bons résultats.
APA, Harvard, Vancouver, ISO, and other styles
28

Morel, Sylvie. "La régression logistique : comparaison avec l'analyse probit à l'aide de la méthode Monte Carlo." Master's thesis, Université Laval, 1986. http://hdl.handle.net/20.500.11794/29182.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Tessé, Lionel. "Modélisation des transferts radiatifs dans les flammes turbulentes par une méthode de Monte Carlo." Châtenay-Malabry, Ecole centrale de Paris, 2001. http://www.theses.fr/2001ECAP0739.

Full text
Abstract:
Un nouvel outil numérique, destiné au calcul des transferts radiatifs dans les chambres de combustion, a été développé. L'équation de transfert du rayonnement est résolue de façon stochastique par trois approches différentes de la méthode de Monte Carlo : une formulation classique et deux approches originales basées sur le principe de réciprocité, qui n'est pas considéré seulement du point de vue géométrique, mais aussi du point de vue énergétique. Afin de réduire la variance des résultats, l'absorption est calculée de façon déterministe. Les propriétés radiatives des gaz sont traitées de façon corrélée par un modèle CK. Des calculs de validation, en milieux diffusants ou non, ont montré que l'approche classique est plus adaptée aux milieux non optiquement épais caractérisés par de forts écarts de température, alors que les deux autres méthodes sont plus adaptées aux milieux optiquement épais ou quasi-isothermes. Les résultats des trois approches sont obtenus simultanément avec un seul calcul. Le temps de calcul est égal à celui nécessaire à l'obtention des résultats à partir d'une seule méthode. La solution optimale consiste à retenir, en chaque maille, le meilleur des trois résultats. La modélisation de l'interaction rayonnement/turbulence repose sur le découpage d'un chemin optique en une succession de structures turbulentes cohérentes indépendantes, supposées homogènes, isothermes et de tailles égales à l'échelle de longueur intégrale de la turbulence. Ce modèle a été appliqué à une flamme turbulente de diffusion contenant des suies. La prise en compte de l'interaction rayonnement/turbulence se traduit par une relative homogénéisation du champ de puissance radiative volumique et par une augmentation de 37% de la perte radiative totale de la flamme. La contribution des suies à cette perte est de 65%. La taille des structures turbulentes cohérentes et la constante du coefficient d'absorption des suies ont une influence importante sur cette perte.
APA, Harvard, Vancouver, ISO, and other styles
30

Chen, Yuting. "Inférence bayésienne dans les modèles de croissance de plantes pour la prévision et la caractérisation des incertitudes." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0040/document.

Full text
Abstract:
La croissance des plantes en interaction avec l'environnement peut être décrite par des modèles mathématiques. Ceux-ci présentent des perspectives prometteuses pour un nombre considérable d'applications telles que la prévision des rendements ou l'expérimentation virtuelle dans le contexte de la sélection variétale. Dans cette thèse, nous nous intéressons aux différentes solutions capables d'améliorer les capacités prédictives des modèles de croissance de plantes, en particulier grâce à des méthodes statistiques avancées. Notre contribution se résume en quatre parties.Tout d'abord, nous proposons un nouveau modèle de culture (Log-Normal Allocation and Senescence ; LNAS). Entièrement construit dans un cadre probabiliste, il décrit seulement les processus écophysiologiques essentiels au bilan de la biomasse végétale afin de contourner les problèmes d'identification et d'accentuer l'évaluation des incertitudes. Ensuite, nous étudions en détail le paramétrage du modèle. Dans le cadre Bayésien, nous mettons en œuvre des méthodes Monte-Carlo Séquentielles (SMC) et des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) afin de répondre aux difficultés soulevées lors du paramétrage des modèles de croissance de plantes, caractérisés par des équations dynamiques non-linéaires, des données rares et un nombre important de paramètres. Dans les cas où la distribution a priori est peu informative, voire non-informative, nous proposons une version itérative des méthodes SMC et MCMC, approche équivalente à une variante stochastique d'un algorithme de type Espérance-Maximisation, dans le but de valoriser les données d'observation tout en préservant la robustesse des méthodes Bayésiennes. En troisième lieu, nous soumettons une méthode d'assimilation des données en trois étapes pour résoudre le problème de prévision du modèle. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de modèle par la méthode de sélection de modèles à l'aide de critères appropriés. Ces paramètres sélectionnés sont par la suite estimés en portant une attention particulière à l'évaluation des incertitudes. La distribution a posteriori ainsi obtenue est considérée comme information a priori pour l'étape de prévision, dans laquelle une méthode du type SMC telle que le filtrage par noyau de convolution (CPF) est employée afin d'effectuer l'assimilation de données. Dans cette étape, les estimations des états cachés et des paramètres sont mis à jour dans l'objectif d'améliorer la précision de la prévision et de réduire l'incertitude associée. Finalement, d'un point de vue applicatif, la méthodologie proposée est mise en œuvre et évaluée avec deux modèles de croissance de plantes, le modèle LNAS pour la betterave sucrière et le modèle STICS pour le blé d'hiver. Quelques pistes d'utilisation de la méthode pour l'amélioration du design expérimental sont également étudiées, dans le but d'améliorer la qualité de la prévision. Les applications aux données expérimentales réelles montrent des performances prédictives encourageantes, ce qui ouvre la voie à des outils d'aide à la décision en agriculture
Plant growth models aim to describe plant development and functional processes in interaction with the environment. They offer promising perspectives for many applications, such as yield prediction for decision support or virtual experimentation inthe context of breeding. This PhD focuses on the solutions to enhance plant growth model predictive capacity with an emphasis on advanced statistical methods. Our contributions can be summarized in four parts. Firstly, from a model design perspective, the Log-Normal Allocation and Senescence (LNAS) crop model is proposed. It describes only the essential ecophysiological processes for biomass budget in a probabilistic framework, so as to avoid identification problems and to accentuate uncertainty assessment in model prediction. Secondly, a thorough research is conducted regarding model parameterization. In a Bayesian framework, both Sequential Monte Carlo (SMC) methods and Markov chain Monte Carlo (MCMC) based methods are investigated to address the parameterization issues in the context of plant growth models, which are frequently characterized by nonlinear dynamics, scarce data and a large number of parameters. Particularly, whenthe prior distribution is non-informative, with the objective to put more emphasis on the observation data while preserving the robustness of Bayesian methods, an iterative version of the SMC and MCMC methods is introduced. It can be regarded as a stochastic variant of an EM type algorithm. Thirdly, a three-step data assimilation approach is proposed to address model prediction issues. The most influential parameters are first identified by global sensitivity analysis and chosen by model selection. Subsequently, the model calibration is performed with special attention paid to the uncertainty assessment. The posterior distribution obtained from this estimation step is consequently considered as prior information for the prediction step, in which a SMC-based on-line estimation method such as Convolution Particle Filtering (CPF) is employed to perform data assimilation. Both state and parameter estimates are updated with the purpose of improving theprediction accuracy and reducing the associated uncertainty. Finally, from an application point of view, the proposed methodology is implemented and evaluated with two crop models, the LNAS model for sugar beet and the STICS model for winter wheat. Some indications are also given on the experimental design to optimize the quality of predictions. The applications to real case scenarios show encouraging predictive performances and open the way to potential tools for yield prediction in agriculture
APA, Harvard, Vancouver, ISO, and other styles
31

Pistrui-Maximean, Simona Anca. "Modeling and simulation of the response of scintillation screens for X-ray imaging." Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2006ISAL0094/these.pdf.

Full text
Abstract:
This thesis is dedicated to the study of the response of scintillator screens used in X-ray imaging, using a modeling/simulation approach based on the Monte Carlo code Geant4. This approach permits to investigate the diversity of the physics processes involved (X-ray photon, electron and visible photon interactions). After a review of the state of the art concerning the properties of scintillators, as well as their modeling, we show that the results of our simulation tool are in agreement with Swank's analytical model, which expresses the Modulation Transfer Function (MTF) in simple cases. Monte Carlo simulation makes it possible to highlight the role played by each physics process: slight degradation of the spatial response by electron processes and significant improvement caused by the absorption and scattering of visible photons. Experimental validations are performed on commercial screens with an X-ray beam collimated by an uranium slit. After the adjustment of optical coefficients using the stochastic gradient technique, we show that the simulated and measured spatial responses are in close agreement with the different energies of the radiation beam. In the last part of this research work, we study the role (in terms of efficiency and spatial resolution) of metallic or plastic layers serving as support. At given sensitivity, the reinforcing effect of the support layer permits to reduce the scintillator thickness with no significant degradation of the spatial resolution
Cette thèse est consacrée à l'étude de la réponse des écrans scintillateurs utilisés en imagerie par rayons X, à l'aide d'une approche de modélisation/simulation basée sur le code de Monte Carlo Geant4. Cette approche permet de prendre en compte la diversité des processus physiques mis en jeu (interactions des photons X, électrons et photons visibles). Après une synthèse sur l'état de l'art concernant les propriétés des scintillateurs, ainsi que leur modélisation, nous montrons tout d'abord que les résultats fournis par notre outil de simulation sont en adéquation avec le modèle analytique de Swank qui explicite la fonction de transfert de modulation (FTM) dans des cas simples. La simulation Monte Carlo permet d'isoler le rôle joué par chacun des processus physiques mis en jeu : dégradation mineure de la réponse spatiale par les processus électroniques et amélioration sensible causée par l'absorption et la diffusion des photons visibles. Des validations expérimentales sont effectuées sur des écrans scintillateurs commerciaux à l'aide d'un faisceau X collimaté par une fente en uranium. Après une étape d'estimation des coefficients optiques par la technique du gradient stochastique, nous montrons que les réponses spatiales simulée et mesurée s'accordent pour différentes énergies du rayonnement. Dans la dernière partie de cette recherche, nous étudions le rôle (en termes d'efficacité et de résolution spatiale) de couches métalliques ou plastiques servant de support au scintillateur. À sensibilité égale, l'effet renforçateur du substrat permet de réduire l'épaisseur du scintillateur sans dégradation notable de la résolution spatiale
APA, Harvard, Vancouver, ISO, and other styles
32

Vaïana, Florian. "Couplage neutronique - thermohydraulique : application au réacteur à neutrons rapides refroidi à l'hélium." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0132.

Full text
Abstract:
Cette thèse se concentre sur l'étude des interactions entre la neuronique et la thermohydraulique. La neutronique permet de déterminer la puissance dans un réacteur nucleaire et la thermohydraulique nous renseigne sur l'évolution des températures des matériaux dans lesquels cette puissance est déposée. La première partie de ce travail est consacrée à l'étude et au développement d'une méthode permettant de simuler des transitoires de réacteurs nucléaires et plus particulièrement en utilisant un code de neutronique Monte-Carlo. La seconde partie concerne l'étude d'un transitoire de remontée intempestive d'une barre de contrôle sur le RNR-He, réacteur nucléaire de quatrième génération. Des modèles permettant de simuler la neutronique et la thermohydraulique du coeur, constitué d'assemblages à plaques combustibles) ont été mis en place dans ce but
This thesis focuses en the study of the interactions between neutron-kinetics and thermal-hydraulics. Neutron-kinetics allow to calculate the power in a nuclear reactor and the temperature evolution of materials where this power is deposited is known thanks to thermal-hydraulics. The first part of this work corresponds to the study and development of a method which allows to simulate transients in nuclear reactor and especially with a Monte-Carlo code for neutron-kinetics. The second part deals with the study of a misplaced control rod withdrawing in a GFR, a fourth generation reactor. Some models allowing to calculate neutron-kintics and thermal-hydraulics in the core (which contains assemblies built up with fuel plates) were defined
APA, Harvard, Vancouver, ISO, and other styles
33

Saucier, Marie Annie. "Développement d'un outil de simulation par Monte Carlo du rayonnement diffusé en tomodensitométrie." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31391.

Full text
Abstract:
L’objectif de ce projet est de créer un programme logiciel permettant de corriger le rayonnement diffusé dans une acquisition tomodensitométrique à géométrie conique. Pour ce faire, une simulation Monte Carlo est utilisée pour estimer le rayonnement diffusé, ce qui consiste à reproduire numériquement un examen en tomodensitométrie. Ce projet a été divisé en deux sections : la validation de la physique pour ce programme spécifique et le développement logiciel du programme. La validation consistait à reproduire les résultats obtenus avec Geant4 avec GPUMCD. Geant4, la plateforme de référence, et GPUMCD, la plateforme à l’étude, sont deux librairies logicielles pour la simulation numérique du transport de particules à travers la matière utilisant les calculs Monte Carlo. Les éléments étudiés sont les sections efficaces, les matériaux, l’algorithme de diffusion Rayleigh et l’algorithme de diffusion Compton. Bien que quelques erreurs persistent dans la physique de GPUMCD, une nette amélioration des résultats entre GPUMCD et Geant4 a été obtenue. La différence entre les deux simulations qui était supérieure à 100% pour une géométrie complexe est passée sous la barre du 10%. De plus, il a été possible d’identifier quelques autres causes telles qu’une différence dans la définition des modèles physiques, et ce, plus précisément dans l’algorithme de diffusion Compton. En ce qui concerne la seconde partie du projet, bien que la correction n’a pu être effectuée pour une reconstruction, tous les éléments ont été implémentés pour estimer le rayonnement diffusé pour une géométrie de patient provenant de données cliniques d’une reconstruction tomodensitométrique. Les paramètres et les stratégies étudiés dans le but d’optimiser le temps de calculs tout en conservant la justesse des résultats sont : le traçage de rayons, le lissage gaussien du rayonnement diffusé, la réduction du nombre de pixels sur le détecteur, l’interpolation des projections, la symétrie et la réduction de nombre de voxels dans le patient. De plus, en considérant une correction de haute qualité, soit 2% d’erreur et moins par stratégie implémentée, on obtient un temps de simulation de moins de 2 minutes sur une GPU Nvidia Titan X. Pour une simulation dite de basse qualité, soit 5% d’erreur et moins par stratégie implémentée, on obtient un temps d’exécution de moins de 15 s par simulation. Cela correspond à des temps cliniquement acceptables si le patient doit attendre sur la table.
The goal of this project is to develop an application to correct the scattered radiation in a cone beam computed tomography scan (CBCT). A Monte Carlo simulation is used to estimate the scattered radiation which is a numerical replication of a CBCT acquisition. This project has been divided into two sections : the validation of the physics for this specific application and the development of the application. The validation consisted in reproducing the results obtained with Geant4 in GPUMCD. Geant4 is the reference platform and GPUMCD is the platform studied. Both are Monte Carlo simulators of the passage of particles through matter.The elements studied are the cross sections, the materials, the Rayleigh scattering algorithm and the Compton scattering algorithm. Although some errors are still present, a great improvement of the results between GPUMCD and Geant4 was obtained. The difference between the two simulations was greater than 100 % for complex geometries and dropped below 10% after corrections of the physics. In addition, it was possible to identify some other problems such as a theoretical difference in the Compton scattering algorithms. Regarding the second part of the project, although the correction could not be implemented in a reconstruction, all elements are present to estimate the scattered radiation for an actual CBCT reconstruction. The parameters and strategies studied in order to optimize the computation time while maintaining the accuracy of the results are : ray tracing, Gaussian smoothing of scattered radiation, reduction of the number of pixels on the detector, interpolation of between the simulated projections, symmetry and reduction of number of voxels in the patient. In addition, considering a correction of high quality is 2 % error and less per implemented strategy, a simulation time of less than 2 minutes is obtained. For a low quality simulation (5% error and less per parameter), a simulation time of less than 15 seconds per simulation was obtained. Those are clinically acceptable simulation times.
APA, Harvard, Vancouver, ISO, and other styles
34

Chan, Shio Christian Paul. "Échantillonner les solutions de systèmes différentiels." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4114/document.

Full text
Abstract:
Ce travail se propose d'étudier deux problèmes complémentaires concernant des systèmes différentiels à coefficients aléatoires étudiés au moyen de simulations de Monte Carlo. Le premier problème consiste à calculer la loi à un instant t* de la solution d'une équation différentielle à coefficients aléatoires. Comme on ne peut pas, en général, exprimer cette loi de probabilité au moyen d'une fonction connue, il est nécessaire d'avoir recours à une approche par simulation pour se faire une idée de cette loi. Mais cette approche ne peut pas toujours être utilisée à cause du phénomène d'explosion des solutions en temps fini. Ce problème peut être surmonté grâce à une compactification de l'ensemble des solutions. Une approximation de la loi au moyen d'un développement de chaos polynomial fournit un outil d'étude alternatif. La deuxième partie considère le problème d'estimer les coefficients d'un système différentiel quand une trajectoire du système est connue en un petit nombre d'instants. On utilise pour cela une méthode de Monté Carlo très simple, la méthode de rejet, qui ne fournit pas directement une estimation ponctuelle des coefficients mais plutôt un ensemble de valeurs compatibles avec les données. L'examen des propriétés de cette méthode permet de comprendre non seulement comment choisir les différents paramètres de la méthode mais aussi d'introduire quelques options plus efficaces. Celles-ci incluent une nouvelle méthode, que nous appelons la méthode de rejet séquentiel, ainsi que deux méthodes classiques, la méthode de Monte-Carlo par chaînes de Markov et la méthode de Monte-Carlo séquentielle dont nous examinons les performances sur différents exemples
This work addresses two complementary problems when studying differential systems with random coefficients using a simulation approach. In the first part, we look at the problem of computing the law of the solution at time t* of a differential equation with random coefficients. It is shown that even in simplest cases, one will usually obtain a random variable where the pdf cannot be computed explicitly, and for which we need to rely on Monte Carlo simulation. As this simulation may not always be possible due to the explosion of the solution, several workarounds are presented. This includes displaying the histogram on a compact manifold using two charts and approximating the distribution using a polynomial chaos expansion. The second part considers the problem of estimating the coefficients in a system of differential equations when a trajectory of the system is known at a set of times. To do this, we use a simple Monte Carlo sampling method, known as the rejection sampling algorithm. Unlike deterministic methods, it does not provide a point estimate of the coefficients directly, but rather a collection of values that “fits” the known data well. An examination of the properties of the method allows us not only to better understand how to choose the different parameters when implementing the method, but also to introduce more efficient methods. This includes a new approach which we call sequential rejection sampling and methods based on the Markov Chain Monte Carlo and Sequential Monte Carlo algorithms. Several examples are presented to illustrate the performance of all these methods
APA, Harvard, Vancouver, ISO, and other styles
35

Gonçalves, Thomas. "Contributions à la parallélisation de méthodes de type transport Monte-Carlo." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM047/document.

Full text
Abstract:
Les applications de transport de particules Monte-Carlo consistent à étudier le comportement de particules se déplaçant dans un domaine de simulation. La répartition des particules sur le domaine de simulation n'est pas uniforme et évolue dynamiquement au cours de la simulation. La parallélisation de ce type d'applications sur des architectures massivement parallèles amène à résoudre une problématique complexe de répartition de charges de calculs et de données sur un grand nombre de cœurs de calcul.Nous avons d'abord identifié les difficultés de parallélisation des applications de transport de particules Monte-Carlo à l'aide d'analyses théoriques et expérimentales des méthodes de parallélisation de référence. Une approche semi-dynamique reposant sur des techniques de partitionnement a ensuite été proposée. Enfin, nous avons défini une approche dynamique capable de redistribuer les charges de calcul et les données tout en maintenant un faible volume de communication. L'approche dynamique a obtenu des accélérations en extensibilité forte et une forte réduction de la consommation mémoire par rapport à une méthode de réplication de domaine parfaitement équilibrée
Monte Carlo particle transport applications consist in studying the behaviour of particles moving about a simulation domain. Particles distribution among simulation domains is not uniform and change dynamically during simulation. The parallelization of this kind of applications on massively parallel architectures leads to solve a complex issue of workloads and data balancing among numerous compute cores.We started by identifying parallelization pitfalls of Monte Carlo particle transport applications using theoretical and experimental analysis of reference parallelization methods. A semi-dynamic based on partitioning techniques has been proposed then. Finally, we defined a dynamic approach able to redistribute workloads and data keeping a low communication volume. The dynamic approach obtains speedups using strong scaling and a memory footprint reduction compared to the perfectly balanced domain replication method
APA, Harvard, Vancouver, ISO, and other styles
36

Bouabça, Thomas. "Introduction d'orbitales corrélées dans les approches Monte-Carlo quantiques." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/847/.

Full text
Abstract:
L'objet de la chimie quantique est d'étudier, à l'aide des principes de la mécanique quantique les propriétés des assemblés moléculaires. Savoir évaluer sur ordinateur de telles propriétés est un enjeu important dans de nombreux domaines scientifiques ou technologiques (biochimie, nanosciences. . . ). Cependant à l'heure actuelle, il n'existe pas de méthode capable de traiter avec une précision contrôlée des systèmes de taille et de nature arbitraire. Basées sur une approche de résolution stochastique de l'équation de Schrödinger, les méthodes Monte-Carlo Quantique (Quantum Monte Carlo QMC) offrent une alternative originale et efficace pour le calcul de telles propriétés sur des systèmes de grande taille. Néanmoins, si les méthodes QMC rivalisent avec les meilleurs méthodes de chimie quantique dans le calcul de certaines propriétés (énergies totales), plusieurs problèmes subsistent pour en faire des méthodes standards. L'un des problèmes les plus importants est l'étude des différences d'énergies. Car ce sont ces différences qui sont au coeur de la chimie. L'objectif de ce travail de thèse a été de proposer, dans le cadre des méthodes QMC, des moyens de calculer plus efficacement ces différences. Pour cela, notre soucis a été de considérer des fonctions d'ondes simples composées d'éléments préoptimisés. Deux stratégies complémentaires ont ainsi étés mises en oeuvre avec succès : La première est l'implémentation d'une nouvelle fonction d'onde modulaire permettant une construction " brique par brique " d'éléments préoptimisés La seconde consiste en l'étude de ces différences par l'emploi de fonctions d'ondes cohérentes permettant une meilleure compensation des erreurs
Quantum chemistry is the branch of theoretical chemistry which applies quantum mechanics to chemistry. The computation of chemical properties is a huge challenge for many scientific and technological fields. (biochemistry, nanosciences. . . ). Nevertheless, for now, no methods can accurately study any systems according to their size or their nature. Based on a stochastic resolution of the Schrödinger equation, Quantum Monte Carlo methods (QMC) represent an original and efficient way for this matter. They are especially suited for big molecular systems. For instance, QMC methods are known to be the most powerful algorithms for computing total ground-state energies. However, some quantities can still not be properly computed with QMC methods. Thus, one of the main issue that remains is the evaluation of differences of energies. Solving this problem is an important step for QMC methods to be considered as standard ones. Indeed, roughly speaking, differences of energies are at the heart of the whole chemistry : any chemical problem can be interpreted as a difference of energies. The purpose of this thesis is to propose a way to compute those differences with QMC methods. Our approach is particularly motivated by a deep concern : using simple preoptimized wavefunctions. In order to achieve this, we propose here two strategies : First, a new wavefunction is introduced. This wavefunction is composed of preoptimized modular elements. With this new wavefunction, any system can be recomposed piece by piece. Second, a set of coherent wavefunctions is used for a controlled compensation of errors
APA, Harvard, Vancouver, ISO, and other styles
37

Saggadi, Samira. "Simulation d'évènements rares par Monte Carlo dans les réseaux hautement fiables." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S055.

Full text
Abstract:
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple s’intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu’un groupe sélectionné de nœuds peuvent communiquer. Dans ce cas, un ensemble de nœuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Dans le cadre de ce travail, on s'intéresse à l’étude et au calcul de la fiabilité des réseaux hautement fiables. Dans ce cas la défiabilité est très petite, ce qui rend l’approche standard de Monte Carlo inutile, car elle nécessite un grand nombre d’itérations. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons développé de nouvelles techniques de simulation basées sur la réduction de variance par échantillonnage préférentiel
Network reliability determination, is an NP-hard problem. For instance, in telecommunications, it is desired to evaluate the probability that a selected group of nodes communicate or not. In this case, a set of disconnected nodes can lead to critical financials security consequences. A precise estimation of the reliability is, therefore, needed. In this work, we are interested in the study and the calculation of the reliability of highly reliable networks. In this case the unreliability is very small, which makes the standard Monte Carlo approach useless, because it requires a large number of iterations. For a good estimation of system reliability with minimum cost, we have developed new simulation techniques based on variance reduction using importance sampling
APA, Harvard, Vancouver, ISO, and other styles
38

Roucairol, Milo. "Monte-Carlo tree search applied to structure generation." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLD029.

Full text
Abstract:
Ce document regroupe les article publiés lors de ma thèse dirigée par Tristan Cazenave au LAMSADE. La recherche Monte Carlo désigne une classe d'algorithmes de recherche stochastiques retournant une solution avec une garantie dans le temps, mais sans garantie de résultat. Ces algorithmes utilisent des techniques d'apprentissage par renforcement basées sur des exploration aléatoires ou guidées. Les capacités des algorithmes Monte Carlo sont limitées dans des domaines d'application mis en valeur récemment, comme la génération d'image et de texte, ou les réseaux de neurones, LLM et autres algorithmes entrainés sur de larges bases de données dominent. Mais en revanche ils excellent sur les problèmes plus classiques et définis. L'usage le plus connu d'algorithme de recherche Monte Carlo est son utilisation en 2017 pour battre pour la première fois un champion de Go, chose qu'aucune autre famille d'algorithme n'était parvenue à faire. Mais les utilisations d'algorithmes de recherche Monte Carlo vont aussi bien au delà des jeux. Les algorithmes de recherche Monte Carlo sont largement utilisés dans la chimie, la recherche opérationnelle, les transports, les mathématiques, et dans les jeux. Ils peuvent être appliqués à tout problème de décision séquentielle et de recherche dans un espace d'état tant que les fonctions d'évaluation et de modification d'un état sont définies. La définition de structure pour cette thèse est "système défini par les éléments qui le composent et les interactions entre ces éléments''. Cette thèse explore plusieurs applications de recherche Monte Carlo dans le contexte de la générationde structure. De nombreux espaces de recherche peuvent être représentés comme une structure en dehors des jeux, comme le circuit du problème de voyageur de commerce par exemple, mais aussi des molécules, des cristaux, des coalitions, des graphes, etc. Les points forts de cette thèse sont : - Des comparaisons entre algorithmes sur divers problèmes montrant la supériorité de la famille d'algorithmes "nested''. - Une nouvelle variante de la Nested Monte Carlo Tree Search (NMCS) avec de meilleures performances. - Une bibliothèque d'algorithmes Monte Carlo codés en Rust. - Un projet de réfutation de conjectures des graphes. - Une implémentation du NMCS pour AiZynthFinder, le logiciel de rétrosynthèse open source d'AstraZeneca. - Un programme de génération de molécules valides et synthétisables. Les sujets abordés peuvent être séparés en deux groupes. D'un côté la chimie, avec le HP-model, la rétrosynthèse, etla génération de molécules. Et de l'autre les mathématiques, avec les structures de coalitions, la théorie spectrale des graphes, les réseaux de transport, et les nonograms.Bien que cette thèse ne se consacre qu'à des applications de la recherche Monte Carlo, elle apporte aussi des aperçus plus généraux : une comparaison des familles d'algorithmes montrant la supériorité des "nested"', une nouvelle variante du NMCS, et des heuristiques et modifications généralement utiles pour les problèmes combinatoirement difficiles
This document gathers the articles published during my PhD thesis directed by Tristan Cazenave at LAMSADE. Monte Carlo search refers to a class of stochastic search algorithms that return a solution with a guarantee of time, but no guarantee of result. These algorithms use reinforcement learning techniques based on random or guided exploration. The capabilities of Monte Carlo algorithms are limited in recently highlighted application domains, such as image and text generation, where neural networks, LLM and other algorithms trained on large databases dominate. On the other hand,they excel in more classic, defined problems.The best-known use of a Monte Carlo search algorithm is its use in 2017 to beat a Go champion for the first time, somethingno other algorithm family had managed to do. But the uses of Monte Carlo search algorithms also extend far beyond gaming. Monte Carlo search algorithms are widely used in chemistry, operations research, transportation, mathematics,and gaming. They can be applied to any sequential decision and state-space search problem, as long as the functions for evaluating and modifying a state are defined. The definition of structure for this thesis is “a system defined by the elements that compose it and the interactions betweenthese elements”. This thesis explores several applications of Monte Carlo search in the context of structure generation.Many search spaces can be represented as structures outside of games, such as the circuit of the traveling sales man problem, but also molecules, crystals, coalitions, graphs, etc. The highlights of this thesis are: - Comparisons between algorithms on various problems showing the superiority of the“nested” family of algorithms. - A new variant of Nested Monte Carlo Tree Search (NMCS) with improved performance.- A library of Monte Carlo algorithms coded in Rust. - A project to refute graph conjectures. - An NMCS implementation for AiZynthFinder, AstraZeneca's open source retrosynthesis software. - A program for generating valid, synthesizable molecules. The topics covered can be divided into two groups. On the one hand, chemistry, with HP-model, retrosynthesis andmolecule generation. On the other, mathematics, with coalition structures, spectral graph theory, transport networks and nonograms. Although this thesis is devoted solely to applications of Monte Carlo search, it also provides more general insights: a comparison of algorithm families showing the superiority of “nested”, a new variant of NMCS, and heuristics and modifications generally useful with NP problems
APA, Harvard, Vancouver, ISO, and other styles
39

Chamberland, Ève. "Évaluation d'un algorithme de calcul de dose par méthode Monte Carlo pour des faisceaux d'électrons." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27413/27413.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Sénégas, Julien. "Méthode de Monte Carlo en vision stéréoscopique : Application à l'étude de modèles numériques de terrain." Paris, ENMP, 2002. https://pastel.archives-ouvertes.fr/tel-00005637.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Benassi, Romain. "Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00864700.

Full text
Abstract:
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
APA, Harvard, Vancouver, ISO, and other styles
42

Tarhini, Ali. "Analyse numérique des méthodes quasi-Monte Carlo appliquées aux modèles d'agglomération." Chambéry, 2008. http://www.theses.fr/2008CHAMS015.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes statistiques basées sur l'utilisation répétée de nombres aléatoires. Les méthodes quasi-Monte Carlo (QMC) sont des versions déterministes des méthodes de Monte Carlo. Les suites aléatoires sont remplacées par des suites à discrépance faible, qui ont une meilleure répartition uniforme dans le cube unite s- dimensionnel. Nous utilisons une classe particulière de suites à discrépance faible : les suites-(t,s). Dans ce travail, nous developpons et analysons des méthodes particulaires Monte Carlo et quasi-Monte Carlo pour les phénomènes d'agglomeration. Nous nous intéressons en particulier à la simulation numérique de l'équation de coagulation discrète (équation de Smoluchowski), de l'équation de coagulation continue, de l'équation de coagulation- fragmentation continue et de l'équation générale de la dynamique (EGD) des aérosols. Pour toutes ces méthodes particulaires, on écrit l'équation vérifiée par la distribution de masse et on approche celle-ci par une somme de n mesures de Dirac ; les mesures sont pondérées dans le cas de la simulation de l'EGD. Le schema en temps est un schema d'Euler explicite. Pour la simulation de la coagulation et de la fragmentation, l'évolution des masses des particules est déterminée par des tirages de nombres aléatoires (méthode MC) ou par des quadratures quasi-Monte Carlo (méthode QMC). Pour assurer la convergence de la méthode QMC, on ordonne les particules par taille croissante à chaque pas de temps. Dans le cas de la résolution de l'EGD, on utilise une méthode à pas fractionnaire : la simulation de la coagulation se fait comme précédemment, les autres phénomènes (condensation. évaporation, déposition) sont pris en compte par une méthode particulaire déterministe de résolution d'une équation aux dérivées partielles hyperbolique. Nous démontrons la convergence du schema particulaire QMC de résolution numérique de l'équation de coagulation et de coagulation-fragmentation, quand le nombre n des particules tend vers l'infini. Tous les essais numériques montrent que les solutions calculées par les nouveaux algorithmes QMC convergent vers les solutions exactes et fournissent de meilleurs résultats que ceux obtenus par les méthodes de Monte Carlo correspondantes
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated experiments. Quasi-Monte Carlo (QMC) methods are deterministic versions of Monte Carlo methods. Random sequences are replaced by low discrepancy sequences. These sequences ha ve a better uniform repartition in the s-dimensional unit cube. We use a special class of low discrepany sequences called (t,s)-sequences. In this work, we develop and analyze Monte Carlo and quasi-Monte Carlo particle methods for agglomeration phenomena. We are interested, in particular, in the numerical simulation of the discrete coagulation equations (the Smoluchowski equation), the continuous coagulation equation, the continuous coagulation-fragmentation equation and the general dynamics equation (GDE) for aerosols. In all these particle methods, we write the equation verified by the mass distribution density and we approach this density by a sum of n Dirac measures ; these measures are weighted when simulating the GDE equation. We use an explicit Euler disretiza tion scheme in time. For the simulation of coagulation and coagulation-fragmentation, the numerical particles evolves by using random numbers (for MC simulations) or by quasi-Monte Carlo quadratures. To insure the convergence of the numerical scheme, we reorder the numerical particles by their increasing mass at each time step. In the case of the GDE equation, we use a fractional step iteration scheme : coagulation is simulated as previously, other phenomena (like condensation, evaporation and deposition) are integrated by using a deterministic particle method for solving hyperbolic partial differential equation. We prove the convergence of the QMC numerical scheme in the case of the coagulation equation and the coagulation-fragmentation equation, when the number n of numerical particles goes to infinity. All our numerical tests show that the numerical solutions calculated by QMC algorithms converges to the exact solutions and gives better results than those obtained by the corresponding Monte Carlo strategies
APA, Harvard, Vancouver, ISO, and other styles
43

Galdin-Retailleau, Sylvie. "Etude du transistor bipolaire npn a double heterojonction si/sige/si par simulations monte-carlo." Paris 11, 1992. http://www.theses.fr/1992PA112132.

Full text
Abstract:
Cette etude porte sur le transistor bipolaire a double heterojonction si/sige/si qui offre les avantages des transistors bipolaires a heterojonction (tbh), rappeles dans le premier chapitre, tout en profitant de la technologie silicium, parfaitement maitrisee. Pour compenser l'absence de discontinuite naturelle de la bande de conduction au niveau de l'heterojonction si/sige, une couche si-p a ete inseree entre l'emetteur et la base. Nous etudions, en premier lieu, l'injection et le transport dans la base en simulant, a l'aide d'un modele particulaire de type monte-carlo, l'heterojonction emetteur-base pour deux compositions de la base sige du transistor : l'une a composition de germanium constante (heterojonction abrupte), l'autre a composition graduelle de germanium. Nous mettons en evidence l'interet d'un transport balistique pour ameliorer le comportement dynamique du transistor. L'avantage de la structure a heterojonction abrupte, du point de vue du temps de transit des electrons, nous a conduit a simuler le tbh reel associe afin d'etudier les problemes de geometrie bidimensionnelles et de collection (autopolarisation, effet kirk). Nous avons, en particulier, examine le phenomene de barriere parasite qui apparait, en forte injection, a l'heterojonction base-collecteur en concomitance avec l'effet kirk. En dernier lieu, nous avons mis au point une methode de mesure directe de la frequence de transition, qui ne necessite aucune hypothese de schemas equivalents, a partir de simulations monte-carlo dynamiques. Les variations du gain en courant en fonction de la frequence sont obtenues en effectuant une decomposition en serie de fourier des courants base et collecteur. Nous avons obtenu une frequence de transition de 70 ghz
APA, Harvard, Vancouver, ISO, and other styles
44

Thauvoye, Christophe. "Simulation numérique d'écoulements turbulents réactifs par une méthode hybride à fonction densité de probabilité transportée." Poitiers, 2005. http://www.theses.fr/2005POIT2276.

Full text
Abstract:
Ce travail s'inscrit dans le cadre des études sur la simulation numérique des écoulements turbulents réactifs. Il a pour objet l'étude d'une méthode hybride basée sur l'utilisation conjointe d'une méthode lagrangienne à Fonction Densité de Probabilité (PDF) transportée et d'une méthode eulérienne de résolution des équations moyennées (RANS). La première partie est consacrée à la description des méthodes RANS et de l'approche à PDF transportée. Cette dernière est particulièrement détaillée : cela permet de mettre en avant les avantages et les inconvénients de cette approche. Dans ce contexte, on insiste sur les aspects liés à la modélisation et à la résolution de l'équation de transport de la PDF. Sa résolution s'appuie couramment sur des simulations numériques de type Monte-Carlo. On montre également comment la nature statistique des méthodes de Monte-Carlo induit des difficultés numériques qui ont conduit à l'élaboration de méthodes hybrides associant méthode RANS et approche à PDF transportée. Dans la seconde partie de cette étude, les aspects théoriques et numériques des méthodes hybrides sont alors détaillés en particulier le modèle PEUL+ développé à l'ONERA. Une nouvelle procédure de couplage de type instationnaire est proposée. Elle améliore la stabilité et la précision du modèle par rapport à la procédure de couplage stationnaire. Elle est ensuite testée et validée sur deux configurations : tout d'abord sur une flamme non prémélangée méthane-air stabilisée par une flamme pilote puis sur une flamme de prémélange dans un élargissement brusque symétrique
This work concerns the field of numerical simulation of turbulent reactive flows. The aim of this work is to study a hybrid method based on the use of a lagrangian transported Probability Density Function (PDF) method coupled with a eulerian method which solves the Reynolds Averaged Navier-Stokes equations (R. A. N. S). The first part is devoted to the description of the RANS and the transported PDF methods. The latter is more precisely detailed : it allows to highlight both advantages and drawbacks of the two approaches. In this context, we will develop all the aspects related to the modelling and resolution of the transported joint PDF equation. Its resolution generally uses a Monte-Carlo numerical simulation. We also show how the statistical nature of Monte-Carlo methods induces numerical difficulties, which led to the development of hybrid methods associating RANS method with a transported PDF approach. In the second part of this study, theoretical and numerical aspects of the hybrid methods are detailed, and more precisely the PEUL+ model developed at ONERA. A new – instationary – way of coupling is proposed. It improves the stability and precision of the model in comparison with the stationary way of coupling. It is then tested and validated on two configurations : a methane-air nonpremixed flame stabilised by a piloted flame ; and a premixed flame in a sudden symmetric plane expansion
APA, Harvard, Vancouver, ISO, and other styles
45

Buchholz, Alexander. "High dimensional Bayesian computation." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLG004.

Full text
Abstract:
La statistique bayésienne computationnelle construit des approximations de la distribution a posteriori soit par échantillonnage, soit en construisant des approximations tractables. La contribution de cette thèse au domaine des statistiques bayésiennes est le développement de nouvelle méthodologie en combinant des méthodes existantes. Nos approches sont mieux adaptées à la dimension ou entraînent une réduction du coût de calcul par rapport aux méthodes existantes.Notre première contribution améliore le calcul bayésien approximatif (ABC) en utilisant le quasi-Monte Carlo (QMC). ABC permet l'inférence bayésienne dans les modèles avec une vraisemblance intractable. QMC est une technique de réduction de variance qui fournit des estimateurs plus précis d’intégrales. Notre deuxième contribution utilise le QMC pour l'inférence variationnelle(VI). VI est une méthode pour construire des approximations tractable à la distribution a posteriori . La troisième contribution développe une approche pour adapter les échantillonneurs Monte Carlo séquentiel (SMC) lorsque on utilise des noyaux de mutation Hamiltonian MonteCarlo (HMC). Les échantillonneurs SMC permettent une estimation non biaisée de l’évidence du modèle, mais ils ont tendance à perdre en performance lorsque la dimension croit. HMC est une technique de Monte Carlo par chaîne de Markov qui présente des propriétés intéressantes lorsque la dimension de l'espace cible augmente mais elle est difficile à adapter. En combinant les deux,nous construisons un échantillonneur qui tire avantage des deux
Computational Bayesian statistics builds approximations to the posterior distribution either bysampling or by constructing tractable approximations. The contribution of this thesis to the fieldof Bayesian statistics is the development of new methodology by combining existing methods. Ourapproaches either scale better with the dimension or result in reduced computational cost com-pared to existing methods. Our first contribution improves approximate Bayesian computation(ABC) by using quasi-Monte Carlo (QMC). ABC allows Bayesian inference in models with in-tractable likelihoods. QMC is a variance reduction technique that yields precise estimations ofintegrals. Our second contribution takes advantage of QMC for Variational Inference (VI). VIis a method for constructing tractable approximations to the posterior distribution. The thirdcontribution develops an approach for tuning Sequential Monte Carlo (SMC) samplers whenusing Hamiltonian Monte Carlo (HMC) mutation kernels. SMC samplers allow the unbiasedestimation of the model evidence but tend to struggle with increasing dimension. HMC is aMarkov chain Monte Carlo technique that has appealing properties when the dimension of thetarget space increases but is difficult to tune. By combining the two we construct a sampler thattakes advantage of the two
APA, Harvard, Vancouver, ISO, and other styles
46

Samba, Gérald. "Analyse asymptotique de schémas de résolution de l'équation du transport en régime diffusif." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2008. http://tel.archives-ouvertes.fr/tel-00363723.

Full text
Abstract:
La méthode Symbolique Implicite Monte Carlo permet d'obtenir une approximation de la solution de l'équation du transport. Dans la méthode originelle, les fonctions d'approximation étaient choisies constantes par morceaux. On démontre qu'en prenant des fonctions linéaires par morceaux, cette méthode possède alors la limite diffusion, c'est à dire qu'en milieu diffusif, elle approche la solution de l'équation de diffusion même lorsque la taille des mailles est grande vis à vis du libre parcours, à condition que celle ci reste suffisante pour résoudre l'échelle de la diffusion. On montre que les conditions aux limites en milieu diffusif approchent, sous certaines hypothèses, les conditions aux limites exactes, ce qui autorise un traitement précis des couches limites sans devoir les mailler finement. On présente des tests numériques étayant cette analyse. On étudie également des schémas aux éléments finis linéaires discontinus et on explique pourquoi ces schémas possèdent la même limite diffusion ainsi que les mêmes conditions aux limites en milieu diffusif que la méthode Symbolique Implicite Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
47

Buchholz, Alexander. "High dimensional Bayesian computation." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLG004/document.

Full text
Abstract:
La statistique bayésienne computationnelle construit des approximations de la distribution a posteriori soit par échantillonnage, soit en construisant des approximations tractables. La contribution de cette thèse au domaine des statistiques bayésiennes est le développement de nouvelle méthodologie en combinant des méthodes existantes. Nos approches sont mieux adaptées à la dimension ou entraînent une réduction du coût de calcul par rapport aux méthodes existantes.Notre première contribution améliore le calcul bayésien approximatif (ABC) en utilisant le quasi-Monte Carlo (QMC). ABC permet l'inférence bayésienne dans les modèles avec une vraisemblance intractable. QMC est une technique de réduction de variance qui fournit des estimateurs plus précis d’intégrales. Notre deuxième contribution utilise le QMC pour l'inférence variationnelle(VI). VI est une méthode pour construire des approximations tractable à la distribution a posteriori . La troisième contribution développe une approche pour adapter les échantillonneurs Monte Carlo séquentiel (SMC) lorsque on utilise des noyaux de mutation Hamiltonian MonteCarlo (HMC). Les échantillonneurs SMC permettent une estimation non biaisée de l’évidence du modèle, mais ils ont tendance à perdre en performance lorsque la dimension croit. HMC est une technique de Monte Carlo par chaîne de Markov qui présente des propriétés intéressantes lorsque la dimension de l'espace cible augmente mais elle est difficile à adapter. En combinant les deux,nous construisons un échantillonneur qui tire avantage des deux
Computational Bayesian statistics builds approximations to the posterior distribution either bysampling or by constructing tractable approximations. The contribution of this thesis to the fieldof Bayesian statistics is the development of new methodology by combining existing methods. Ourapproaches either scale better with the dimension or result in reduced computational cost com-pared to existing methods. Our first contribution improves approximate Bayesian computation(ABC) by using quasi-Monte Carlo (QMC). ABC allows Bayesian inference in models with in-tractable likelihoods. QMC is a variance reduction technique that yields precise estimations ofintegrals. Our second contribution takes advantage of QMC for Variational Inference (VI). VIis a method for constructing tractable approximations to the posterior distribution. The thirdcontribution develops an approach for tuning Sequential Monte Carlo (SMC) samplers whenusing Hamiltonian Monte Carlo (HMC) mutation kernels. SMC samplers allow the unbiasedestimation of the model evidence but tend to struggle with increasing dimension. HMC is aMarkov chain Monte Carlo technique that has appealing properties when the dimension of thetarget space increases but is difficult to tune. By combining the two we construct a sampler thattakes advantage of the two
APA, Harvard, Vancouver, ISO, and other styles
48

Jaillon, Franck. "Caractérisation optique des milieux diffusants : simulation Monte Carlo et mesures en rétrodiffusion polarisée." Lyon 1, 2003. http://www.theses.fr/2003LYO10055.

Full text
Abstract:
Le problème de la caractérisation optique des milieux turbides en régime statique est ici abordé dans le cas où la nature vectorielle de la lumière est considérée. Une mesure du coefficient de diffusion réduit et celui d'absorption est accessible à l'aide de l'analyse de la réflectance en lumière non polarisée. Mais cette réflectance est insensible au coefficient de diffusion qui est porteur d'informations structurelles microscopiques. Une question se pose : "la polarisation apporte-t-elle une information sur le coefficient d'anisotropie g du milieu sondé ?". Un code suivant une méthode Monte Carlo a donc été écrit de façon à pouvoir retracer les interactions d'une onde lumineuse polarisée avec un milieu stratifié contenant des diffuseurs de Mie. Un outil expérimental a aussi été développé afin de réaliser une comparaison avec ces simulations. On s'est ici intéressé aux modifications géométriques et d'intensité induites dans le cas de deux composantes du vecteur de Stokes rétrodiffusé.
APA, Harvard, Vancouver, ISO, and other styles
49

Doan, Viet Dung. "Grid computing for Monte Carlo based intensive calculations in financial derivative pricing applications." Nice, 2010. http://www.theses.fr/2010NICE4078.

Full text
Abstract:
Dans cette thèse, nous proposons un environnement de programmation sur grille, nommé PicsouGrid, qui cible tout particulièrement le pricing de contrats dérivés optionnels dans le domaine de la finance. Nous nous focalisons sur le problème de la valorisation d'options de grande dimension (c. A. D. Dont le sous-jacent est un grand panier d'actifs). Cet environnement inclut des mécanismes de tolérance aux fautes, de répartition de charge, de partage dynamique de taches, de déploiement, et ainsi, cible des environnements de calcul hétérogènes tels les grilles de calcul. Nous nous intéressons également à la parallélisation d'un algorithme nommé Classification Monte Carlo (CMC), défini à l'origine par Picazo (2002), pour calculer le prix d'options de type Américain en grande dimension, et qui passe à l'échelle. Nous décrivons les résultats d'expériences obtenus avec cet algorithme parallèle implémenté dans PicsouGrid avec jusqu'à 100 opportunités d'exercice et jusqu'à 40 actifs sous-jacents (pour faire référence à l'indice CAC40). Nous comparons et analysons la précision numérique des prix des ces options calculés avec cet algorithme CMC, et ce en utilisant différents algorithmes de classification, comme AdaBoost, Gradient Boost et les "Support Vector Machines". Finalement, nous définissons une suite de tests de performance, dans le domaine de la finance, pour l'évaluation et l'analyse d'intergiciels de grilles de calcul. La suite de tests de performance a été utilisée avec succès durant le "2008 SuperQuant Monte Carlo challenge - the Fifth Grid Plugtest and Contest". Dans le cadre de ce challenge, nous avons également développé une API pour faciliter la mise en œuvre d'applications ProActive nécessitant des simulations Monte Carlo
In this thesis, we provide a grid programming framework, named PicsouGrid, which specially targets financial derivative pricing applications. We are interested in the evaluation of high dimensional option contracts (based on a basket of underlying assets) Such a framework includes fault tolerance, load balancing, dynamic task distribution and deployment mechanisms, and as such targets heterogeneous computing environments like computing grids. We also propose a parallelisation of the Classification Monte Carlo (CMC) algorithm, originally devised by Picazo (2002), for high dimensional American option pricing, which scales in a grid environment. We describe experimental results obtained running this parallel algorithm using PicsouGrid. We are able to run this algorithm for pricing American options requiring important computation times, because of a large number of opportunity dates (e. G. Up to 100 such dates), and because of large dimension (e. G. Up to 40 underlying assets). We also compare and analyse the option price accuracy obtained with this CMC algorithm when using different classification algorithms such as AdaBoost, Gradient Boost and Support Vector Machines. Additionally, we define a financial benchmark suite for performance evaluation and analysis of grid computing middlewares. Such benchmark suite is conceptually simple and easy to understand for both the grid computing and financial communities. The benchmark suite was successfully used in the 2008 SuperQuant Monte Carlo challenge - the Fifth Grid Plugtest and Contest. Within the context of this challenge, we developed the ProActive Monte Carlo API (MC API). Key works : Grid computing, high dimensional American option pricing, Monte Carlo methods, classification techniques, benchmark suite, grid iddleware
APA, Harvard, Vancouver, ISO, and other styles
50

Haeseler, Geoffroy. "Transitions de phases topologiques classiques et quantiques dans les systèmes magnétiques frustrés." Electronic Thesis or Diss., Lyon, École normale supérieure, 2025. http://www.theses.fr/2025ENSL0008.

Full text
Abstract:
Il est bien connu que les glaces de spins comme Ho2Ti2O7 présentent plusieurs plateaux dans leur aimantation lorsqu’un champ magnétique leur est appliqué. Le premier d’entre eux est du aux gèles des spins apicaux qui laisse une entropie extensive dans les plans de kagomé perpendiculaire au champ et isolés les uns des autres. Dans ce cas, les spins du réseau kagomé sont contraint dans leur phase K11. En utilisant le processus de fragmentation, les spins des plans mappent, en partie, sur un modèle de dimer sur réseau nid d’abeille. Ce système est étudié sous plusieurs conditions. Nous commençons par ajouter un champ magnétique dans les plans kagomé. Dans le langage de dimer, le champ prend la forme d’affinités chimiques différentes en fonction de la direction du dimer. Dans ce cas, le système présente une transition de Kasteleyn avec des corrélations critiques ajustables par la direction du champ. Ensuite nous ajoutons un terme de plaquette, qui compte le nombre de boucle de trois dimers pouvant être ajouté, conduisant à une transition BKT vers une star phase ordonnée lorsque ce terme est négatif et une transition de Kasteleyn vers une columnar phase lorsque qu’il est positif. Nous ajoutons finalement ces deux termes en même temps pour trouver un point tri critique à partir duquel la transition BKT devient premier ordre. Nous étudions ensuite une généralisation de ce modèle de dimer sur réseau diamant sous un champs qui peut être incliné, conduisant à d’autres transitions de Kasteleyn en 3D. Ce modèle peut être réalisé expérimentalement dans des pyrochlores qui satisfont, dans leur état fondamental, la règle 3-in-1-out and 3-out-1-in similaire à celle des glaces de spins comme Ho2Ir2O7. Ce modèle de dimer présente des points triples intéressant autour desquels la température tends vers zéros et l’état de plus basse énergie présente une entropie résiduelle proportionnel à celle de la glace de kagomé. Finalement nous ajoutons des termes quantiques, hors-diagonaux, sur le modèle de dimer 2D, ce qui favorise des superpositions quantiques des boucles à trois dimer autour d’un hexagone similaire à des anneaux de benzène. Ce modèle est étudié numériquement à l’aide d’un algorithme de Monte-Carlo basé sur le formalisme de Suzuki-Trotter. Nous confirmons l’existence d’une transition de premier ordre entre la star phase classique et la phase plaquette résonnante quantique. Nous ajoutons un champ conjugué au paramètre d’ordre de la star phase pour trouver un point critique quantique entre ces deux phases. Une analyse fine de la phase plaquette révèle des corrélations similaires à celle d’un liquide de Coulomb qui disparaissent en loi de puissance avec la température, ce qui indique l’existence d’un spectre d’excitations continues au-dessus d’un état fondamental ordonné. Enfin, nous étudions cette phase quantique avec un secteur topologique non zéro qui frustre l’ordre à longue portée de la star phase, laissant des corrélations rappelant un liquide quantique. Les corrélations sont présentées sous la forme de figures de diffraction de neutrons polarisés interagissant avec les spins du réseau kagomé équivalent au modèle de dimer et fragmenté pour en extraire le champ transverse émergent des dimers
Il est bien connu que les glaces de spins comme Ho2Ti2O7 présentent plusieurs plateaux dans leur aimantation lorsqu’un champ magnétique leur est appliqué. Le premier d’entre eux est du aux gèles des spins apicaux qui laisse une entropie extensive dans les plans de kagomé perpendiculaire au champ et isolés les uns des autres. Dans ce cas, les spins du réseau kagomé sont contraint dans leur phase K11. En utilisant le processus de fragmentation, les spins des plans mappent, en partie, sur un modèle de dimer sur réseau nid d’abeille. Ce système est étudié sous plusieurs conditions. Nous commençons par ajouter un champ magnétique dans les plans kagomé. Dans le langage de dimer, le champ prend la forme d’affinités chimiques différentes en fonction de la direction du dimer. Dans ce cas, le système présente une transition de Kasteleyn avec des corrélations critiques ajustables par la direction du champ. Ensuite nous ajoutons un terme de plaquette, qui compte le nombre de boucle de trois dimers pouvant être ajouté, conduisant à une transition BKT vers une star phase ordonnée lorsque ce terme est négatif et une transition de Kasteleyn vers une columnar phase lorsque qu’il est positif. Nous ajoutons finalement ces deux termes en même temps pour trouver un point tri critique à partir duquel la transition BKT devient premier ordre. Nous étudions ensuite une généralisation de ce modèle de dimer sur réseau diamant sous un champs qui peut être incliné, conduisant à d’autres transitions de Kasteleyn en 3D. Ce modèle peut être réalisé expérimentalement dans des pyrochlores qui satisfont, dans leur état fondamental, la règle 3-in-1-out and 3-out-1-in similaire à celle des glaces de spins comme Ho2Ir2O7. Ce modèle de dimer présente des points triples intéressant autour desquels la température tends vers zéros et l’état de plus basse énergie présente une entropie résiduelle proportionnel à celle de la glace de kagomé. Finalement nous ajoutons des termes quantiques, hors-diagonaux, sur le modèle de dimer 2D, ce qui favorise des superpositions quantiques des boucles à trois dimer autour d’un hexagone similaire à des anneaux de benzène. Ce modèle est étudié numériquement à l’aide d’un algorithme de Monte-Carlo basé sur le formalisme de Suzuki-Trotter. Nous confirmons l’existence d’une transition de premier ordre entre la star phase classique et la phase plaquette résonnante quantique. Nous ajoutons un champ conjugué au paramètre d’ordre de la star phase pour trouver un point critique quantique entre ces deux phases. Une analyse fine de la phase plaquette révèle des corrélations similaires à celle d’un liquide de Coulomb qui disparaissent en loi de puissance avec la température, ce qui indique l’existence d’un spectre d’excitations continues au-dessus d’un état fondamental ordonné. Enfin, nous étudions cette phase quantique avec un secteur topologique non zéro qui frustre l’ordre à longue portée de la star phase, laissant des corrélations rappelant un liquide quantique. Les corrélations sont présentées sous la forme de figures de diffraction de neutrons polarisés interagissant avec les spins du réseau kagomé équivalent au modèle de dimer et fragmenté pour en extraire le champ transverse émergent des dimers
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography