To see the other types of publications on this topic, follow the link: Méthodes de Monte-Carlo et quasi Monte-Carlo.

Dissertations / Theses on the topic 'Méthodes de Monte-Carlo et quasi Monte-Carlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes de Monte-Carlo et quasi Monte-Carlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ounaissi, Daoud. "Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Full text
Abstract:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
APA, Harvard, Vancouver, ISO, and other styles
2

Coulibaly, Ibrahim. "Contributions à l'analyse numérique des méthodes quasi-Monte Carlo." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004933.

Full text
Abstract:
Les méthodes de type quasi-Monte Carlo sont des versions déterministes des méthodes de Monte Carlo. Les nombres aléatoires sont remplacés par des nombres déterministes qui forment des ensembles ou des suites à faible discrepance, ayant une meilleure distribution uniforme. L'erreur d'une méthode quasi-Monte Carlo dépend de la discrepance de la suite utilisée, la discrepance étant une mesure de la déviation par rapport à la distribution uniforme. Dans un premier temps nous nous intéressons à la résolution par des méthodes quasi-Monte Carlo d'équations différentielles pour lesquelles il y a peu de régularité en temps. Ces méthodes consistent à formuler le problème avec un terme intégral pour effectuer ensuite une quadrature quasi-Monte Carlo. Ensuite des méthodes particulaires quasi-Monte Carlo sont proposées pour résoudre les équations cinétiques suivantes : l'équation de Boltzmann linéaire et le modèle de Kac. Enfin, nous nous intéressons à la résolution de l'équation de la diffusion à l'aide de méthodes particulaires utilisant des marches quasi-aléatoires. Ces méthodes comportent trois étapes : un schéma d'Euler en temps, une approximation particulaire et une quadrature quasi-Monte Carlo à l'aide de réseaux-$(0,m,s)$. A chaque pas de temps les particules sont réparties par paquets dans le cas des problèmes multi-dimensionnels ou triées si le problème est uni-dimensionnel. Ceci permet de démontrer la convergence. Les tests numériques montrent pour les méthodes de type quasi-Monte Carlo de meilleurs résultats que ceux fournis par les méthodes de type Monte Carlo.
APA, Harvard, Vancouver, ISO, and other styles
3

Tarhini, Ali. "Analyse numérique des méthodes quasi-Monte Carlo appliquées aux modèles d'agglomération." Chambéry, 2008. http://www.theses.fr/2008CHAMS015.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes statistiques basées sur l'utilisation répétée de nombres aléatoires. Les méthodes quasi-Monte Carlo (QMC) sont des versions déterministes des méthodes de Monte Carlo. Les suites aléatoires sont remplacées par des suites à discrépance faible, qui ont une meilleure répartition uniforme dans le cube unite s- dimensionnel. Nous utilisons une classe particulière de suites à discrépance faible : les suites-(t,s). Dans ce travail, nous developpons et analysons des méthodes particulaires Monte Carlo et quasi-Monte Carlo pour les phénomènes d'agglomeration. Nous nous intéressons en particulier à la simulation numérique de l'équation de coagulation discrète (équation de Smoluchowski), de l'équation de coagulation continue, de l'équation de coagulation- fragmentation continue et de l'équation générale de la dynamique (EGD) des aérosols. Pour toutes ces méthodes particulaires, on écrit l'équation vérifiée par la distribution de masse et on approche celle-ci par une somme de n mesures de Dirac ; les mesures sont pondérées dans le cas de la simulation de l'EGD. Le schema en temps est un schema d'Euler explicite. Pour la simulation de la coagulation et de la fragmentation, l'évolution des masses des particules est déterminée par des tirages de nombres aléatoires (méthode MC) ou par des quadratures quasi-Monte Carlo (méthode QMC). Pour assurer la convergence de la méthode QMC, on ordonne les particules par taille croissante à chaque pas de temps. Dans le cas de la résolution de l'EGD, on utilise une méthode à pas fractionnaire : la simulation de la coagulation se fait comme précédemment, les autres phénomènes (condensation. évaporation, déposition) sont pris en compte par une méthode particulaire déterministe de résolution d'une équation aux dérivées partielles hyperbolique. Nous démontrons la convergence du schema particulaire QMC de résolution numérique de l'équation de coagulation et de coagulation-fragmentation, quand le nombre n des particules tend vers l'infini. Tous les essais numériques montrent que les solutions calculées par les nouveaux algorithmes QMC convergent vers les solutions exactes et fournissent de meilleurs résultats que ceux obtenus par les méthodes de Monte Carlo correspondantes
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated experiments. Quasi-Monte Carlo (QMC) methods are deterministic versions of Monte Carlo methods. Random sequences are replaced by low discrepancy sequences. These sequences ha ve a better uniform repartition in the s-dimensional unit cube. We use a special class of low discrepany sequences called (t,s)-sequences. In this work, we develop and analyze Monte Carlo and quasi-Monte Carlo particle methods for agglomeration phenomena. We are interested, in particular, in the numerical simulation of the discrete coagulation equations (the Smoluchowski equation), the continuous coagulation equation, the continuous coagulation-fragmentation equation and the general dynamics equation (GDE) for aerosols. In all these particle methods, we write the equation verified by the mass distribution density and we approach this density by a sum of n Dirac measures ; these measures are weighted when simulating the GDE equation. We use an explicit Euler disretiza tion scheme in time. For the simulation of coagulation and coagulation-fragmentation, the numerical particles evolves by using random numbers (for MC simulations) or by quasi-Monte Carlo quadratures. To insure the convergence of the numerical scheme, we reorder the numerical particles by their increasing mass at each time step. In the case of the GDE equation, we use a fractional step iteration scheme : coagulation is simulated as previously, other phenomena (like condensation, evaporation and deposition) are integrated by using a deterministic particle method for solving hyperbolic partial differential equation. We prove the convergence of the QMC numerical scheme in the case of the coagulation equation and the coagulation-fragmentation equation, when the number n of numerical particles goes to infinity. All our numerical tests show that the numerical solutions calculated by QMC algorithms converges to the exact solutions and gives better results than those obtained by the corresponding Monte Carlo strategies
APA, Harvard, Vancouver, ISO, and other styles
4

Gilquin, Laurent. "Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM042/document.

Full text
Abstract:
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus
Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented
APA, Harvard, Vancouver, ISO, and other styles
5

Desrumaux, Pierre-François. "Méthodes statistiques pour l’estimation du rendement paramétrique des circuits intégrés analogiques et RF." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20126/document.

Full text
Abstract:
De nombreuses sources de variabilité impactent la fabrication des circuits intégrés analogiques et RF et peuvent conduire à une dégradation du rendement. Il est donc nécessaire de mesurer leur influence le plus tôt possible dans le processus de fabrications. Les méthodes de simulation statistiques permettent ainsi d'estimer le rendement paramétrique des circuits durant la phase de conception. Cependant, les méthodes traditionnelles telles que la méthode de Monte Carlo ne sont pas assez précises lorsqu'un faible nombre de circuits est simulé. Par conséquent, il est nécessaire de créer un estimateur précis du rendement paramétrique basé sur un faible nombre de simulations. Dans cette thèse, les méthodes statistiques existantes provenant à la fois de publications en électroniques et non-Électroniques sont d'abord décrites et leurs limites sont mises en avant. Ensuite, trois nouveaux estimateurs de rendement sont proposés: une méthode de type quasi-Monte Carlo avec tri automatique des dimensions, une méthode des variables de contrôle basée sur l'estimation par noyau, et une méthode par tirage d'importance. Les trois méthodes reposent sur un modèle mathématique de la métrique de performance du circuit qui est construit à partir d'un développement de Taylor à l'ordre un. Les résultats théoriques et expérimentaux obtenus démontrent la supériorité des méthodes proposées par rapport aux méthodes existantes, à la fois en terme de précision de l'estimateur et en terme de réduction du nombre de simulations de circuits
Semiconductor device fabrication is a complex process which is subject to various sources of variability. These variations can impact the functionality and performance of analog integrated circuits, which leads to yield loss, potential chip modifications, delayed time to market and reduced profit. Statistical circuit simulation methods enable to estimate the parametric yield of the circuit early in the design stage so that corrections can be done before manufacturing. However, traditional methods such as Monte Carlo method and corner simulation have limitations. Therefore an accurate analog yield estimate based on a small number of circuit simulations is needed. In this thesis, existing statistical methods from electronics and non-Electronics publications are first described. However, these methods suffer from sever drawbacks such as the need of initial time-Consuming circuit simulations, or a poor scaling with the number of random variables. Second, three novel statistical methods are proposed to accurately estimate the parametric yield of analog/RF integrated circuits based on a moderate number of circuit simulations: An automatically sorted quasi-Monte Carlo method, a kernel-Based control variates method and an importance sampling method. The three methods rely on a mathematical model of the circuit performance metric which is constructed based on a truncated first-Order Taylor expansion. This modeling technique is selected as it requires a minimal number of SPICE-Like circuit simulations. Both theoretical and simulation results show that the proposed methods lead to significant speedup or improvement in accuracy compared to other existing methods
APA, Harvard, Vancouver, ISO, and other styles
6

Marques, Ricardo. "Bayesian and Quasi-Monte Carlo spherical integration for global illumination." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00979655.

Full text
Abstract:
The spherical sampling of the incident radiance function entails a high computational cost. Therefore the llumination integral must be evaluated using a limited set of samples. Such a restriction raises the question of how to obtain the most accurate approximation possible with such a limited set of samples. In this thesis, we show that existing Monte Carlo-based approaches can be improved by fully exploiting the information available which is later used for careful samples placement and weighting.The first contribution of this thesis is a strategy for producing high quality Quasi-Monte Carlo (QMC) sampling patterns for spherical integration by resorting to spherical Fibonacci point sets. We show that these patterns, when applied to the rendering integral, are very simple to generate and consistently outperform existing approaches. Furthermore, we introduce theoretical aspects on QMC spherical integration that, to our knowledge, have never been used in the graphics community, such as spherical cap discrepancy and point set spherical energy. These metrics allow assessing the quality of a spherical points set for a QMC estimate of a spherical integral.In the next part of the thesis, we propose a new heoretical framework for computing the Bayesian Monte Carlo quadrature rule. Our contribution includes a novel method of quadrature computation based on spherical Gaussian functions that can be generalized to a broad class of BRDFs (any BRDF which can be approximated sum of one or more spherical Gaussian functions) and potentially to other rendering applications. We account for the BRDF sharpness by using a new computation method for the prior mean function. Lastly, we propose a fast hyperparameters evaluation method that avoids the learning step.Our last contribution is the application of BMC with an adaptive approach for evaluating the illumination integral. The idea is to compute a first BMC estimate (using a first sample set) and, if the quality criterion is not met, directly inject the result as prior knowledge on a new estimate (using another sample set). The new estimate refines the previous estimate using a new set of samples, and the process is repeated until a satisfying result is achieved.
APA, Harvard, Vancouver, ISO, and other styles
7

Blanco, Juan Antonio. "Couplage neutronique, thermohydraulique et thermomécanique pour la modélisation des accidents de criticité dans des systèmes nucléaires." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI078.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre de travaux portant sur la mise au point de modèles multi-échelle et multi-physiques pour la simulation des accidents de criticité, menés conjointement par le CNRS et l’IRSN. L’approche multi-physique et multi-échelle a comme objectif de produire un modèle numérique prenant en compte tous les phénomènes physiques importants dans les systèmes nucléaires ainsi que leur couplage. Cette approche permet d’améliorer les capacités prédictives des modèles et d’étudier de manière numérique le comportement des composants d’un système nucléaire dans des conditions difficilement réalisables/reproductibles par des expériences. Elle est donc particulièrement utile pour l’étude des accidents de criticité, ou plus généralement, pour tous les systèmes nucléaires où de très forts couplages existent entre la neutronique, la mécanique (des solides et des fluides) et la thermique.Les objectifs de la thèse étaient, d’une part, de développer un nouveau schéma numérique de couplage entre le code neutronique Serpent 2 (code du type Monte Carlo) et le code OpenFOAM (code de mécanique des fluides numérique ou CFD) et, d’autre part, de développer des modèles physiques permettant une plus grande flexibilité dans les études des accidents de criticité en termes de type de transitoires, de systèmes et de variété de phénomènes. Parmi les modèles développés dans notre outil multi-physique on peut citer des modèles neutroniques transitoires du type quasi-statique Monte Carlo et déterministes SP1 et SP3. Un modèle thermo-hydraulique du type milieu poreux a été aussi mis en place pour les études des systèmes comportant du combustible solide entouré par un caloporteur. L’implémentation numérique du couplage multi-physique a été faite en C/C++ sur la plateforme OpenFOAM qui permet la résolution numérique de modèles de mécanique des fluides (RANS, LES et DNS), et plus généralement, de la mécanique des milieux continus, en utilisant la méthode des volumes finis. Le travail de thèse a porté par ailleurs sur l’étude de la stratégie à suivre pour implémenter numériquement la méthode quasi-statique avec un code de type Monte Carlo dans la même plateforme et a travers d’un couplage interne.Les performances du couplage et des modèles que nous avons développés dans la thèse ont été testées dans différents scénarios et systèmes nucléaires : expériences transitoires avec l’expérience Godiva, benchmark international entre codes multi-physiques d’un réacteur à sels fondus et scénarios hypothétiques d’accidents de criticité dans des piscines de combustibles des Réacteurs à Eau Bouillante (REBs). Ces divers scénarios et systèmes ont été choisis pour leurs nombreux phénomènes physiques couplés nécessitant une modélisation très précise : effet Doppler, expansion thermique et contraintes thermomécaniques dans le combustible, présence des écoulements laminaires ou turbulents dans le caloporteur ou le combustible liquide, convection des précurseurs de neutrons retardés et phénomènes de transfert de masse, transfert d’énergie et de changement de phase dans des milieux poreux. La confrontation des prévisions de l’outil multi-physique et des résultats disponibles s’avère très satisfaisante et montre que l’approche adoptée est très pertinente et adaptée aux particularités des études de criticité avec un niveau de précision et une flexibilité adéquate tout en présentant des coûts computationnels raisonnables
This thesis was developed within in the framework of the multi-scale and multi-physics models for the simulation of criticality accidents, carried jointly between the CNRS and the IRSN. A multi-physics and multi-scale approach aims to produce a numerical model taking into account all the relevant physical phenomena existing in nuclear systems as well as their coupling. This approach makes possible to improve the predictive capacities of the single physics models and to numerically study the behavior of a nuclear system under conditions that would be difficult to achieve or reproduce by experiments. The multi-scale / multi-physics approach is, therefore, particularly useful for the study of nuclear reactor criticality accidents, or more generally, for all nuclear systems where a tight coupling exists between neutronics, mechanics (of solids and fluids) and heat transfers.The objectives of the thesis were, firstly, to develop a new numerical scheme for the coupling between the neutronic code Serpent 2 (Monte Carlo code) and the Computational Fluid Dynamics (CFD) code OpenFOAM. Secondly, to develop the physical models that allow greater flexibility for criticality accidents studies in terms of type of transients, systems and phenomena considered. Among the various physical models developed during the work, it can be mentioned the transient neutronic models based on a quasi-static Monte Carlo approach and on the deterministic SP1 and SP3 methods. A porous medium model was also developed during the work to allow performing studies on nuclear systems containing a solid nuclear fuel cooled by a fluid. The numerical implementation of the multi-physics coupling was performed in C/C++ in the OpenFOAM code. This code is very well suited to numerically solve continuous mechanics problems using a finite volume method. It also provides very large library of CFD algorithms (RANS, LES et DNS). The thesis work specially focused on the study of the strategy to be followed to implement the quasi-static method numerically with a Monte Carlo type code in the same platform through internal coupling.The performances of the coupling and the developed models were studied for different scenarios and nuclear systems: the transient Godiva experiments, an international benchmark for multi-physics codes for Molten Salts Reactors and the case of a hypothetical criticality accident in a Boiling Water Reactor (BWR) spent fuel pool. These diverse scenarios and systems were selected because they are characterized by presenting a multitude of highly coupled physical phenomena which required a very careful modeling. One can mention: the Doppler and fuel density effects, the thermal expansion and thermomechanical stresses, the presence of laminar or turbulent flows in the coolant or liquid fuel, the delayed neutrons precursors convection, and the energy and mass transfers and the phase change in porous media. The different comparisons between the multi-physics tool and the available data show a very good agreement and confirm that the selected approach is pertinent for the study of criticality accidents and allows obtaining very good precision and flexibility while maintaining satisfactory computational costs
APA, Harvard, Vancouver, ISO, and other styles
8

Kebaier, Ahmed. "Réduction de variance et discrétisation d'équations différentielles stochastiques : théorèmes limites presque sûres pour les martingales quasi-continues à gauche." Marne-la-Vallée, 2005. https://tel.archives-ouvertes.fr/tel-00011947.

Full text
Abstract:
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales. La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion. Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux. La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche
This thesis contains two parts related respectively to the discretization of stochastic differential equations and to the almost sure limit theorems for martingales. The first part is made up three chapters: the first chapter introduces the general framework of the study and presents the main results. The second chapter is devoted to study a new method of acceleration of convergence, called statistical Romberg method, for the evaluation of expectations of functions or functionnal of a given diffusion. In the third chapter, we use this method in order to approximate density diffusions using kernel density functions. The second part of the thesis is made up of two chapters: the first chapter presents the recents results concerning the almost sure central limit theorem and its extensions. The second chapter, extends various results of type ASCLT for quasi-left continuous martingales
APA, Harvard, Vancouver, ISO, and other styles
9

Koudiraty, Abdoul A. "Analyse numérique de méthodes quasi-Monte Carlo." Chambéry, 2001. http://www.theses.fr/2001CHAMS015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Kebaier, Ahmed. "Réduction de variance et discrétisation d'équations différentielles stochastiques.Théorèmes limites presque sûre pour les martingales quasi-continues à gauche." Phd thesis, Université de Marne la Vallée, 2005. http://tel.archives-ouvertes.fr/tel-00011947.

Full text
Abstract:
Cette Thèse est composée de deux parties portant respectivement sur la discrétisation des équations différentielles stochastiques et sur le théorème de la limite centrale presque sûre pour les martingales.

La première Partie est composée de trois chapitres: Le premier chapitre introduit le cadre de l'étude et présente les résultats obtenus. Le deuxième chapitre est consacré à l'étude d'une nouvelle méthode d'accélération de convergence, appelée méthode de Romberg statistique, pour le calcul d'espérances de fonctions ou de fonctionnelles d'une diffusion.
Ce chapitre est la version augmentée d'un article à paraître dans la revue Annals of Applied Probability.

Le troisième chapitre traite de l'application de cette méthode à l'approximation de densité par des méthodes de noyaux.
Ce chapitre est basé sur un travail en collaboration avec Arturo Kohatsu-Higa.

La deuxième partie de la thèse est composée de deux chapitres: le premier chapitre présente la littérature récente concernant le théorème de la limite centrale presque sûre et ses extensions. Le deuxième chapitre, basé sur un travail en collaboration avec Faouzi Chaâbane, étend divers résultats de type TLCPS à des martingales quasi-continues à gauche.
APA, Harvard, Vancouver, ISO, and other styles
11

Tuffin, Bruno. "Simulation acceleree par les methodes de monte carlo et quasi-monte carlo : theorie et applications." Rennes 1, 1997. http://www.theses.fr/1997REN10181.

Full text
Abstract:
Dans cette these nous etudions et appliquons les methodes de monte carlo et quasi-monte carlo. Nous nous interessons premierement a la theorie. Les methodes de quasi-monte carlo sont basees sur deux notions : la variation et la discrepance. Comme premiere contribution, nous ameliorons la repartition d'une famille importante de suites a discrepance faible, les suites de halton. Nous realisons ensuite une technique analogue a la reduction de la variance dans les methodes de monte carlo, la reduction de la variation. La borne de l'erreur n'etant que rarement utilisable en pratique, nous proposons une approche pour l'utilisation des suites a discrepance faible comme technique de reduction de la variance dans les methodes de monte carlo. Nous analysons l'efficacite de cette reduction et comparons les differentes suites afin de choisir la mieux adaptee. La deuxieme partie de la these est consacree a des applications concretes et efficaces de ces methodes. Nous considerons d'abord les reseaux de files d'attente multi-classes a forme produit et ameliorons leur simulation par deux techniques differentes de reduction de la variance : les variables antagonistes et les suites a discrepance faible. Cette derniere methode est ensuite appliquee a la simulation d'un systeme cellulaire avec partage dynamique des ressources. Finalement, nous etudions la simulation des systemes markoviens hautement fiables et approfondissons les methodes existantes. Nous introduisons un nouveau concept, l'approximation normale bornee, qui permet d'obtenir une approximation de la loi normale satisfaisante dans le theoreme de la limite centrale, quelle que soit la fiabilite du systeme etudie, et donnons une condition necessaire et suffisante sur la mesure d'echantillonnage preferentiel pour obtenir cette propriete.
APA, Harvard, Vancouver, ISO, and other styles
12

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
APA, Harvard, Vancouver, ISO, and other styles
13

Arouna, Bouhari. "Algotithmes stochastiques et méthodes de Monte Carlo." Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001269.

Full text
Abstract:
Dans cette thèse,nous proposons de nouvelles techniques de réduction de variance, pourles simultions Monté Carlo. Par un simple changement de variable, nous modifions la loi de simulation de façon paramétrique. L'idée consiste ensuite à utiliser une version convenablement projetée des algorithmes de Robbins-Monro pour déterminer le paramètre optimal qui "minimise" la variance de l'estimation. Nous avons d'abord développé une implémentation séquentielle dans laquelle la variance est réduite dynamiquement au cours des itératons Monte Carlo. Enfin, dans la dernière partie de notre travail, l'idée principale a été d'interpréter la réduction de variance en termes de minimisation d'entropie relative entre une mesure de probabilité optimale donnée, et une famille paramétrique de mesures de probabilité. Nous avons prouvé des résultats théoriques généraux qui définissent un cadre rigoureux d'utilisation de ces méthodes, puis nous avons effectué plusieurs expérimentations en finance et en fiabilité qui justifient de leur efficacité réelle.
APA, Harvard, Vancouver, ISO, and other styles
14

Moreni, Nicola. "Méthodes de Monte Carlo et valorisation d' options." Paris 6, 2005. http://www.theses.fr/2005PA066626.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Cerf, Nicolas. "Méthodes de Monte Carlo :application à l'étude de systèmes quantiques." Doctoral thesis, Universite Libre de Bruxelles, 1995. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212621.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Maire, Sylvain. "Quelques Techniques de Couplage entre Méthodes Numériques Déterministes et Méthodes de Monte-Carlo." Habilitation à diriger des recherches, Université du Sud Toulon Var, 2007. http://tel.archives-ouvertes.fr/tel-00579977.

Full text
Abstract:
Les travaux présentes s'inscrivent dans le cadre de la réduction de variance pour les méthodes de Monte-Carlo et plus généralement dans l'optimisation de méthodes numériques à l'aide de couplage entre des méthodes déterministes et des méthodes probabilistes. Trois thèmes principaux seront abordés à l'aide de ces techniques: l'intégration numérique sur un hypercube, la résolution d' équations aux dérivées partielles linéaires et le calcul des éléments propres principaux (valeur propre et vecteur propre) de certains opérateurs linéaires.
APA, Harvard, Vancouver, ISO, and other styles
17

Touzin, Guillaume. "Étude des méthodes de Monte-Carlo et de leurs efficacités relatives." Thèse, Université du Québec à Trois-Rivières, 2013. http://depot-e.uqtr.ca/6868/1/030466576.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Arouna, Bouhari. "Méthodes de Monté Carlo et algorithmes stochastiques." Marne-la-vallée, ENPC, 2004. https://pastel.archives-ouvertes.fr/pastel-00001269.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Fakhereddine, Rana. "Méthodes de Monte Carlo stratifiées pour l'intégration numérique et la simulation numériques." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM047/document.

Full text
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes numériques qui utilisent des nombres aléatoires pour résoudre avec des ordinateurs des problèmes des sciences appliquées et des techniques. On estime une quantité par des évaluations répétées utilisant N valeurs et l'erreur de la méthode est approchée par la variance de l'estimateur. Le présent travail analyse des méthodes de réduction de la variance et examine leur efficacité pour l'intégration numérique et la résolution d'équations différentielles et intégrales. Nous présentons d'abord les méthodes MC stratifiées et les méthodes d'échantillonnage par hypercube latin (LHS : Latin Hypercube Sampling). Parmi les méthodes de stratification, nous privilégions la méthode simple (MCS) : l'hypercube unité Is := [0; 1)s est divisé en N sous-cubes d'égale mesure, et un point aléatoire est choisi dans chacun des sous-cubes. Nous analysons la variance de ces méthodes pour le problème de la quadrature numérique. Nous étudions particulièrment le cas de l'estimation de la mesure d'un sous-ensemble de Is. La variance de la méthode MCS peut être majorée par O(1=N1+1=s). Les résultats d'expériences numériques en dimensions 2,3 et 4 montrent que les majorations obtenues sont précises. Nous proposons ensuite une méthode hybride entre MCS et LHS, qui possède les propriétés de ces deux techniques, avec un point aléatoire dans chaque sous-cube et les projections des points sur chacun des axes de coordonnées également réparties de manière régulière : une projection dans chacun des N sousintervalles qui divisent I := [0; 1) uniformément. Cette technique est appelée Stratification Sudoku (SS). Dans le même cadre d'analyse que précédemment, nous montrons que la variance de la méthode SS est majorée par O(1=N1+1=s) ; des expériences numériques en dimensions 2,3 et 4 valident les majorations démontrées. Nous présentons ensuite une approche de la méthode de marche aléatoire utilisant les techniques de réduction de variance précédentes. Nous proposons un algorithme de résolution de l'équation de diffusion, avec un coefficient de diffusion constant ou non-constant en espace. On utilise des particules échantillonnées suivant la distribution initiale, qui effectuent un déplacement gaussien à chaque pas de temps. On ordonne les particules suivant leur position à chaque étape et on remplace les nombres aléatoires qui permettent de calculer les déplacements par les points stratifiés utilisés précédemment. On évalue l'amélioration apportée par cette technique sur des exemples numériques Nous utilisons finalement une approche analogue pour la résolution numérique de l'équation de coagulation, qui modélise l'évolution de la taille de particules pouvant s'agglomérer. Les particules sont d'abord échantillonnées suivant la distribution initiale des tailles. On choisit un pas de temps et, à chaque étape et pour chaque particule, on choisit au hasard un partenaire de coalescence et un nombre aléatoire qui décide de cette coalescence. Si l'on classe les particules suivant leur taille à chaque pas de temps et si l'on remplace les nombres aléatoires par des points stratifiés, on observe une réduction de variance par rapport à l'algorithme MC usuel
Monte Carlo (MC) methods are numerical methods using random numbers to solve on computers problems from applied sciences and techniques. One estimates a quantity by repeated evaluations using N values ; the error of the method is approximated through the variance of the estimator. In the present work, we analyze variance reduction methods and we test their efficiency for numerical integration and for solving differential or integral equations. First, we present stratified MC methods and Latin Hypercube Sampling (LHS) technique. Among stratification strategies, we focus on the simple approach (MCS) : the unit hypercube Is := [0; 1)s is divided into N subcubes having the same measure, and one random point is chosen in each subcube. We analyze the variance of the method for the problem of numerical quadrature. The case of the evaluation of the measure of a subset of Is is particularly detailed. The variance of the MCS method may be bounded by O(1=N1+1=s). The results of numerical experiments in dimensions 2,3, and 4 show that the upper bounds are tight. We next propose an hybrid method between MCS and LHS, that has properties of both approaches, with one random point in each subcube and such that the projections of the points on each coordinate axis are also evenly distributed : one projection in each of the N subintervals that uniformly divide the unit interval I := [0; 1). We call this technique Sudoku Sampling (SS). Conducting the same analysis as before, we show that the variance of the SS method is bounded by O(1=N1+1=s) ; the order of the bound is validated through the results of numerical experiments in dimensions 2,3, and 4. Next, we present an approach of the random walk method using the variance reduction techniques previously analyzed. We propose an algorithm for solving the diffusion equation with a constant or spatially-varying diffusion coefficient. One uses particles, that are sampled from the initial distribution ; they are subject to a Gaussian move in each time step. The particles are renumbered according to their positions in every step and the random numbers which give the displacements are replaced by the stratified points used above. The improvement brought by this technique is evaluated in numerical experiments. An analogous approach is finally used for numerically solving the coagulation equation ; this equation models the evolution of the sizes of particles that may agglomerate. The particles are first sampled from the initial size distribution. A time step is fixed and, in every step and for each particle, a coalescence partner is chosen and a random number decides if coalescence occurs. If the particles are ordered in every time step by increasing sizes an if the random numbers are replaced by statified points, a variance reduction is observed, when compared to the results of usual MC algorithm
APA, Harvard, Vancouver, ISO, and other styles
20

Helmstetter, Bernard. "Analyses de dépendances et méthodes Monte-Carlo dans les jeux de réflexion." Paris 8, 2007. http://octaviana.fr/document/126279233#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Nous explorons deux familles de techniques de programmation des jeux de réflexion : des techniques de Monte-Carlo et des techniques de recherche permettant d'exploiter la faible dépendance entre différentes parties d'un jeu. Ces techniques sont appliquées à des jeux à un ou deux joueurs : un jeu de patience à un joueur appelé Montana, le jeu de Go, et un puzzle à un joueur appelé le Morpion solitaire. Nous présentons un algorithme appelé transpositions incrémentales, que nous appliquons d'abord à Montana ; nous y appliquons aussi un algorithme appelé recherche par blocs. Nous abordons, au Go, la transitivité des connexions, et nous développons l'approche de Monte-Carlo, obtenant un programme particulièrement simple. Au Morpion solitaire, l'application de l'algorithme des transpositions incrémentales combiné à une parallélisation de la recherche mène à un record pour une variante de ce jeu
We explore two families of game programming methods: Monte-Carlo methods, and methods that exploit the weak dependencies between parts of a game. Those methods are applied to one and two-player games: a solitaire card game called Montana, the game of Go, and a one-player puzzle called Morpion solitaire. We describe an algorithm called incremental transpositions which we first apply to Montana; we also apply an algorithm called block search. We study the transitivity of connections in the game of Go and we develop the Monte-Carlo approach, which make a particularly simple program. On Morpion solitaire, applying the algorithm of incremental transpositions and combining with a parallelized search allows us to find a new record for a variant of the game
APA, Harvard, Vancouver, ISO, and other styles
21

Lamberti, Roland. "Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL007/document.

Full text
Abstract:
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel
This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
APA, Harvard, Vancouver, ISO, and other styles
22

Dekeyser, Jean-Luc. "Architectures et algorithmes parallèles pour les méthodes Monte-Carlo en physique des particules." Lille 1, 1986. http://www.theses.fr/1986LIL10075.

Full text
Abstract:
La simulation en physique des particules est un gros consommateur de temps CPU. De plus, la plupart des logiciels de simulation existants ont été écrits en FORTRAN pour des machines séquentielles. Aussi avons-nous voulu développer de nouveaux algorithmes pour des architectures présentant un aspect parallèle. Une implémentation de type multi-événements a été étudiée et complètement réalisée sur une architecture de type maître/esclaves. Nous poursuivons par l'étude de la vectorisation des algorithmes de simulation, la partie géométrique a été vectorisée et testée sur un CYBER 205. Enfin, une approche Ada pour ce type de problème, avec les notions de type d'objets, de paquettage générique et de multi-tâches est ensuite présentée.
APA, Harvard, Vancouver, ISO, and other styles
23

Malzac, Julien. "Modélisation de l'émission X et Gamma des objets compacts par les méthodes Monte-Carlo." Phd thesis, Université Paul Sabatier - Toulouse III, 1999. http://tel.archives-ouvertes.fr/tel-00010420.

Full text
Abstract:
L'étude des processus de production de rayonnement de haute énergie dans les plasmas relativistes constituant l'environnement des objets compacts nécéssite des outils numériques relativement lourds. Je présente des codes dédiés à la simulation de ces processus (diffusions Compton multiples, production et annihilation de paires Èlectron-positon, raie de fluorescence du fer...). D'une part, des codes basés sur des méthodes Monte-Carlo standards (linéaires) permettent de calculer le spectre Èmis par Comptonisation dans un plasma chaud ou réflexion sur de la matière froide. Ces calculs sont effectuÈs pour une géométrie et une distribution des électrons fixée. D'autre part, un code Monte-Carlo nonlinéaire a été développé. Ce code évite les hypothèses sur la distribution des électrons (ou paires) qui est calculée de manière autocohérente en utilisant à la fois le bilan énergétique et le bilan de création/annihilation des paires, et en tenant compte du couplage avec la matière froide présente dans l'environnement de la région active. Les paramètres libres sont alors la puissance fournie au plasma et la façon dont cette énergie est fournie (chauffage thermique, injection/accélération de particules à haute énergie...). Les spectres calculés, comparés aux observations, donnent des informations sur la distribution des particules et les processus de dissipation d'énergie. Ce code permet également d'étudier des situations hors équilibre, dépendant du temps et notamment de calculer les courbes de lumière associées à une perturbation. Des applications aux différents modèles proposès pour rendre compte des observations X et gamma sont présentées (modèles thermiques, non-thermiques, modèle d'illumination anisotrope et modèles de couronne thermique radiativement couplèe au disque d'accrétion). Je montre comment de tels outils numériques peuvent mettre des contraintes sur la géométrie et les conditions physiques qui règnent dans les sources compactes de rayonnement X et gamma.
APA, Harvard, Vancouver, ISO, and other styles
24

Sridi, Abir. "Méthodes Monte Carlo et modélisation du smile de volatilité dans un cadre multi-dimensionnel." Paris 1, 2012. http://www.theses.fr/2012PA010069.

Full text
Abstract:
Cette thèse comprend deux parties qui traitent la problématique du smile de volatilité qui apparaît en finance lors de l'évaluation des produits optionnels. Dans la première partie, nous nous intéressons â l'évaluation, via les techniques Monte Carlo, des swaptions Bermudas dans un cadre BGM avec volatilité déterministe et stochastique. Afin de calculer le prix de ce produit, nous testons et comparons plusieurs schémas de discrétisation. L'évaluation d'une swaption Bermuda nécessite de résoudre un problème de temps d'arrêt optimal discret qui est résolu en procédant à une récurrence rétrograde où à chaque étape on compare la valeur intrinsèque à l'espérance des flux futurs conditionnellement à l’information disponible. Longstaff et Schwartz ont proposé une méthode qui consiste à approcher l’espérance conditionnelle par sa projection sur une famille de fonctions. Une des difficultés de l'algorithme est le choix de la base car ce choix est déterminant quant à la qualité de l'estimation. Dans notre travail, nous choisissons d'approcher l'espérance conditionnelle par une famille de fonctions issue de la théorie des réseaux de neurones monocoucbe appelée base de fonctions logistiques. Afin de tester la robustesse de cette base, nous, la comparons aux bases de fonctions de Laguerre et de Legendre en évaluant une Bermuda dans un cadre BGM à volatilité déterministe et stochastique. Dans la deuxième partie, nous nous intéressons à la modélisation du smile via un mélange de dynamiques D. Brigo et F. Mercurio ont développé un modèle unidimensionnel à volatilité locale paramétrique qui présente l'avantage d'avoir une dynamique ainsi qu'une densité explicites des sous-jacents. Dans le cadre de notre recherche, nous nous consacrons à étendre ce modèle au cas multidimensionnel. Afin de montrer la performance du modèle résultant, que nous nommons Multi Variate Mixture Dynamics (MYMD), nous le comparons à une approche classique en termes d'évaluation des options sur panier. Nous prouvons que le modèle MYMD est une projection markovienne d'un modèle â volatilité incertaine. Nous étudions aussi la structure de dépendance du modèle MVMD et nous la comparons à celle de l'approche classique. Pour ce faire, nous utilisons des coefficients de corrélation non linéaires et non paramétriques tels que le taux de Kendall ou encore le rho de Spearman.
APA, Harvard, Vancouver, ISO, and other styles
25

Giner, Emmanuel. "Méthodes d'interaction de configurations et Monte Carlo quantique : marier le meilleur des deux mondes." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2722/.

Full text
Abstract:
Mes travaux concernent principalement le problème de la corrélation électronique dans les systèmes tels que les atomes ou les molécules. Il sera ici principalement question de méthodes de configuration d'interactions (CI) et de Fixed Node Diffusion Monte Carlo (FN-DMC) appliqués aux calculs de propriétés électroniques telles que l'énergie de corrélation ou les différences d'énergies. L'idée novatrice de ce travail est d'utiliser des fonctions d'ondes CI comme fonctions d'essais pour le FN-DMC, et on montrera que grâce à un algorithme de sélection intelligent de déterminants de Slater, celles ci peuvent en pratique donner d'excellents résultats. On montrera comment on peut améliorer les résultats des méthodes de fonctions d'ondes grâce à la puissance du FN-DMC
This work mainly concerns the general problem of the electronic correlation in molecular and atomic systems. The methods used here to asses this problem belong to two usually separate approaches, namely the configuration interaction (CI) and fixed node diffusion Monte Carlo (FN-DMC). The key idea of this work is to use CI wave functions as trial wave functions for the FN-DMC algorithm, and it will be shown that thanks to wise selection of Slater determinants, these wave function can be used in practice in such context. We will show that the FN-DMC used in this way improve considerably the results obtained with the CI approach
APA, Harvard, Vancouver, ISO, and other styles
26

Rubenthaler, Sylvain. "Méthodes de Monte-Carlo en filtrage non linéaire et pour certaines équations différentielles stochastiques." Paris 6, 2002. http://www.theses.fr/2002PA066546.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Philippe, Anne. "Contribution à la théorie des lois de référence et aux méthodes de Monte Carlo." Rouen, 1997. http://www.theses.fr/1997ROUES005.

Full text
Abstract:
Cette thèse est composée de deux parties distinctes : la première relève de la statistique bayésienne et la seconde des méthodes de Monte Carlo. Nous étudions, dans la première partie, l'apport des lois non informatives de référence. Nous obtenons, via ces lois et les régions de confiance bayésiennes, une solution au classique problème de Fieller-Creasy posé par le modèle de calibration. Un deuxième problème est l'estimation de fonctions quadratiques d'une moyenne normale. Il conduit à de surprenantes complications dans les inférences bayésiennes et fréquentistes. Nous évaluons les propriétés de ces lois et plus particulièrement leurs propriétés de couverture pour ce modèle. La seconde partie de cette thèse est consacrée à l'estimation des intégrales par les méthodes de Monte Carlo. Nous introduisons un estimateur de Monte Carlo basé sur les propriétés des sommes de Riemann. Nous montrons que cet estimateur possède des propriétés de convergence supérieures aux approches classiques. Nous montrons que la méthode d'échantillonnage pondéré se généralise à notre estimateur et produit un estimateur optimal en terme de réduction de la variance. Nous généralisons notre estimateur aux méthodes de Monte Carlo par chaines de Markov. De plus, nous établissons un critère de contrôle de convergence des chaines de Markov issues des algorithmes de Monte Carlo par chaines de Markov. L'étape de simulation des variables aléatoires, qui apparait dans les méthodes de Monte Carlo, est abordée dans notre étude des lois gamma tronquées. Nous déterminons des algorithmes d'acceptation-rejet dominant les approches classiques. Nous avons illustré les différents résultats obtenus par de nombreuses simulations.
APA, Harvard, Vancouver, ISO, and other styles
28

Giffard, Françòis-Xavier. "Développements utilisant des méthodes stochastiques et déterministes pour l'analyse de systèmes nucléaires complexes." Evry-Val d'Essonne, 2000. http://www.theses.fr/2000EVRY0007.

Full text
Abstract:
En physique des reacteurs et du cycle, le transport des rayonnements joue un role important. En neutronique, les calculs de conception, d'exploitation et d'evaluation des systemes nucleaires sont effectues a l'aide de grands logiciels complexes ou codes offrant des capacites de modelisation tres variees. Les limites actuelles des calculateurs imposent toutefois des simplifications et approximations pour rendre les calculs realisables dans des delais et a un cout raisonnables. Deux grandes classes de methodes sont utilisees dans ces codes. La premiere, dite deterministe, satisfait la plupart des besoins avec une precision connue mais est entachee d'approximations. L'autre methode, dite de monte carlo, ne contient pas les approximations de la premiere mais les simulations sont en general excessivement longues. La motivation principale de ce travail est d'etudier les possibilites de couplage de ces deux methodes pour essayer de tirer parti des avantages de chacune d'elles sans les inconvenients. Notre travail s'est porte sur l'acceleration des calculs monte carlo 3-d a energie continue (code tripoli-4) grace a une ponderation optimisee tiree de cartes d'importance fournies par le code deterministe eranos. L'application a deux problemes pratiques differents de type attenuation de rayonnements montre l'efficacite et le fort potentiel de notre methode : des accelerations d'un facteur 100 sont constatees. Elle offre de surcroit l'avantage d'une mise en uvre assez aisee en raison de sa faible sensibilite a la finesse de la carte d'importance. On a aussi demontre que des gains significatifs sont obtenus par application de la methode aux problemes de propagation couplee neutron-gamma moyennant la prise en compte de l'interdependance
APA, Harvard, Vancouver, ISO, and other styles
29

Estecahandy, Maïder. "Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri." Thesis, Pau, 2016. http://www.theses.fr/2016PAUU3008/document.

Full text
Abstract:
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel
The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology
APA, Harvard, Vancouver, ISO, and other styles
30

Ksas, Frédéric. "Méthodes de Monte-Carlo et suites à discrépance faible appliquées au calcul d'options en finance." Evry-Val d'Essonne, 2000. http://www.theses.fr/2000EVRY0011.

Full text
Abstract:
Cette thèse contient deux parties : la première partie traite des méthodes numériques et la seconde étudie leurs applications en finance. Les premiers chapitres sont consacrés à une description des méthodes de Monte-Carlo, quasi Monte-Carlo et hybrides. Nous donnons une estimation de la variation d'une fonction et des techniques susceptibles de la réduire. Nous donnons aussi une estimation de la discrépance étendue des suites unidimensionnellles, en particulier celles dont les termes sont une somme de composantes d'une suite multidimensionnelle à discrépance faible. Puis, les derniers chapitres s'intéressent à l'évaluation et la couverture des options avec un ou plusieurs actifs risqués, comme un call européen dans un modèle de marché complet avec sauts, un call asiatique dans un modèle de marché incomplet avec sauts ou un call sur panier dans un modèle multidimensionnel de Black-Scholes. Nous obtenons de nombreux résultats numériques et prouvons que certaines fonctions issues de la finance ne sont pas à variable finie
This thesis contains two parts : the first part deals with numerical methods and the second part studies their applications in finance. The first chapters are devoted to a description of Monte Carlo, quasi-Monte Carlo and hybrid methods. We give an estimation of the variation of a function and techniques in order to reduce it. We give also an estimation of the extended discrepancy of one-dimensional sequence, in particular those whose the terms are a sum of compenents of a multidimensional low-discrepancy sequence. Then, the last chapters are interested in pricing and hedging options with one or several risky assets, such as a European call in a model of complete market with jumps, an Asian call in a model of incomplete market with jumps or a basket call in a multidimensional model of Black-Scholes. We obtain many numerical results and prove that some functions from finance are not of finite variation
APA, Harvard, Vancouver, ISO, and other styles
31

Varet, Suzanne. "Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00511385.

Full text
Abstract:
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
APA, Harvard, Vancouver, ISO, and other styles
32

Dubarry, Cyrille. "Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00762243.

Full text
Abstract:
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
APA, Harvard, Vancouver, ISO, and other styles
33

Bricout, Paul-Henri. "Contribution à l'étude de dispositifs NMOS submicroniques par les méthodes de Monte-Carlo et de dérivés-diffusion." Lille 1, 1994. http://www.theses.fr/1994LIL10149.

Full text
Abstract:
Les progres les plus recents en matiere d'integration de composants mos ont permis d'atteindre le cap de 0. 1 micron de longueur de canal, notamment grace a l'evolution de la lithographie haute resolution. Le comportement des transistors mos est alors fortement influence par le profil de champ electrique, a l'origine des effets de transport balistique et des effets canaux courts. A ce titre, l'optimisation de tels composants requiert une comprehension detaillee de la physique du transport electronique faisant appel a des outils de simulation performants. La premiere partie de cette these porte sur l'elaboration d'un simulateur de dispositifs nmos par la methode de monte carlo. Cette technique a ete completee par la mise au point d'un couplage avec la resolution d'equations etendues de derive-diffusion. Cette approche permet une convergence rapide des simulations et la prise en compte de phenomenes intervenant a des echelles de temps differentes. La methode de couplage a ete appliquee a la simulation de dispositifs fortement submicroniques, montrant que le phenomene de survitesse peut etre mis a profit pour ameliorer certaines caracteristiques electriques, notamment augmenter la transconductance. La reduction conjointe des dimensions des transistors et de leur tension d'alimentation a permis de mettre en evidence une reduction significative de l'energie maximale atteinte par les electrons qui attenue les phenomenes de degradation lies a l'injection dans l'oxyde de grille. Enfin, une architecture originale de transistor mos a grille enterree a egalement ete etudiee. Comparativement aux dispositifs plans conventionnels, ce type de structure presente un excellent controle des effets canaux courts. D'autre part, il a ete demontre que de bonnes performances en courant peuvent etre preservees grace a un niveau de dopage du substrat largement inferieur a celui d'un transistor plan.
APA, Harvard, Vancouver, ISO, and other styles
34

Gouriou, Jean. "Utilisation des méthodes de Monte Carlo pour l'analyse de l'influence des facteurs biologiques et physiques en dosimétrie interne." Toulouse 3, 1996. http://www.theses.fr/1996TOU30003.

Full text
Abstract:
L'utilisation optimale des techniques therapeutiques basees sur l'emploi de radionucleides necessite une connaissance precise jusqu'a l'echelle cellulaire de la dose delivree aux differents tissus. Dans la majorite des cas cliniques, la mesure directe de la dose est difficile ou impossible. L'objectif de notre etude est de calculer la distribution de dose afin d'evaluer l'influence des caracteristiques physiques et biologiques des differents radionucleides et configurations radioactives etudies aussi bien dans les applications therapeutiques que diagnostiques. Dans la premiere partie, nous dressons l'etat de l'art en dosimetrie interne et nous exposons les limitations inherentes a chaque methode. La simulation basee sur les methodes de monte carlo etant la technique utilisee, nous presentons le code de monte carlo employe (code egs4-presta). Une etude preliminaire a permis de valider notre technique pour differentes configurations geometriques decrites dans la litterature et pour des dimensions allant de la cellule a la tumeur. A partir des differentes donnees histologiques disponibles, nous avons pu etablir plusieurs modeles dosimetriques permettant de calculer la distribution de dose delivree a la region cible par differents radionucleides. La derniere partie de ce memoire concerne la dosimetrie macroscopique a l'echelle de l'organe. Nous proposons un programme de simulation base sur les methodes de monte carlo et developpe pour integrer les diverses caracteristiques morphologiques du patient. La validation du programme est effectuee pour le fantome anthropomorphique equivalent a l'adolescent de 15 ans. Deux exemples d'application viennent confirmer l'interet d'un tel programme en medecine nucleaire
APA, Harvard, Vancouver, ISO, and other styles
35

Sartor, del Giudice Pablo Enrique. "Propriétés et méthodes de calcul de la fiabilité diamètre-bornée des réseaux." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00945265.

Full text
Abstract:
Soit un réseau comprenant des lignes de communication qui échouent indépendamment, dans lequel tous ou certains sites, appelés terminaux, doivent être capables de communiquer entre eux. Dans le modèle stochastique statique classique le réseau est représenté par un graphe probabiliste dont les arêtes sont présentes selon des probabilités connues. La mesure de fiabilité classique (CLR) est la probabilité que les terminaux appartiennent à la même composante connexe. Dans plusieurs contextes il est utile d'imposer la condition plus forte que la distance entre deux terminaux quelconques soit bornée supérieurement par un paramètre d. La probabilité que ça se produise est connue comme la fiabilité diamètre-bornée (DCR). Il s'agit d'une extension de la CLR. Les deux problèmes appartiennent à la classe NP-difficile de complexité; le calcul exact n'est possible que pour les instances de taille limitée ou topologies spécifiques. Dans cette thèse, nous contribuons des résultats concernant le problème du calcul et l'estimation de la DCR. Nous étudions la complexité de calcul de cas particuliers, paramétré par le nombre de terminaux, nœuds et le paramètre d. Nous passons en revue des méthodes pour le calcul exact et étudions des topologies particulières pour lesquelles le calcul de la DCR a une complexité polynomiale. Nous introduisons des résultats de base sur le comportement asymptotique de la DCR lorsque le réseau se développe comme un graphe aléatoire. Nous discutons sur l'impact de la contrainte de diamètre dans l'utilisation des techniques de Monte Carlo, et adaptons et testons une famille de méthodes basées sur le conditionnement de l'espace d'échantillonnage en utilisant des structures nommées d-pathsets et d-cutsets. Nous définissons une famille de mesures de performabilité qui généralise la DCR, développons une méthode de Monte Carlo pour l'estimer, et présentons des résultats expérimentaux sur la performance de ces techniques Monte Carlo par rapport é l'approche naïve. Finalement, nous proposons une nouvelle technique qui combine la simulation Monte Carlo et l'interpolation polynomiale pour les mesures de fiabilité.
APA, Harvard, Vancouver, ISO, and other styles
36

Thiam, Cheik Oumar. "Dosimétrie en radiothérapie et curiethérapie par simulation Monte-Carlo GATE sur grille informatique." Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21771.

Full text
Abstract:
Les traitements de radiothérapie nécessitent la délivrance d'une dose précise au niveau de la tumeur et une bonne connaissance de la dose dans les zones avoisinantes. Ce calcul, habituellement réalisé par les TPS, exige des outils précis et rapides. La plate-forme de simulation Monte-Carlo GATE, basée sur le code GEANT4, offre un outil performant pour les applications de la médecine nucléaire mais aussi des fonctionnalités permettant de faire des calculs dosimétriques de façon fiable et rapide. Dans cette thèse, deux études ont été menées en parallèle : la validation de la plate-forme GATE pour la modélisation de sources d'électrons et de photons de basse énergie et l'exploitation optimisée des infrastructures de grille informatique pour réduire les temps de calculs des simulations. GATE a été validé pour le calcul de points kernels de dose d'électrons mono-énergétiques et comparé avec les résultats d'autres études Monte-Carlo. Une étude détaillée a été faite sur la gestion du dépôt d'énergie au cours du transport des électrons dans GEANT4. Nous nous sommes intéressés aussi à la validation de GATE concernant le dépôt de dose de photons de très basse énergie (inférieure 35 keV). Pour cela, trois modèles de sources radioactives utilisées en curiethérapie et contenant de l'iode 125 (modèle 2301 de Best Medical International , Symmetra de UroMed/ Bebig et 6711 d'Amersham) ont été simulés. Plusieurs caractéristiques dosimétriques ont été étudiées selon les recommandations du groupe de travail n°43 de l'AAPM (American Association of Physicists in Medecine). Les résultats obtenus montrent une bonne concordance entre GATE et les études prises comme référence et recommandées par l'AAPM. L'utilisation de simulations Monte-Carlo dans les applications médicales pour une meilleure définition de la dose déposée dans un volume tumoral, nécessite des temps de calculs longs. Afin de réduire ces temps, nous avons exploité l'infrastructure de la grille EGEE sur laquelle nos simulations sont distribuées en utilisant des techniques novatrices pour la prise en compte de l'état de la grille de calcul. Les temps nécessaires pour la simulation d'une radiothérapie utilisant des électrons ont été réduits jusqu'à un facteur de 30. Une plate-forme web basée sur le portail GENIUS a été développée pour rendre accessible de façon simple toutes les modalités de soumission et de gestion des simulations ainsi que la gestion de données médicales (informations sur les patients, images CT, IRM. . . ) sur les ressources de la grille. L'objectif final visé est de faire de GATE un outil fiable et utilisé en clinique pour des planifications de traitements de radiothérapie avec des temps de calculs acceptables (pas plus de 12 heures de calcul)
APA, Harvard, Vancouver, ISO, and other styles
37

Di, Lella Angela. "Méthodes de simulation moléculaire pour l'étude de la distribution des cations et de l'adsorption de molécules polaires dans les zéolithes." Paris 11, 2007. http://www.theses.fr/2007PA112303.

Full text
Abstract:
Les propriétés d`adsorption des zéolithes sont étroitement corrélées à la position des cations extra-charpentes et à leur accessibilité aux molécules adsorbées. Cependant il est difficile de localiser précisement ces ions expérimentalement, surtout en présence d'eau. Nous avons donc utilisé la simulation moléculaire afin d'apporter de nouvelles informations sur la répartition des cations entre les différents sites cristallographiques de la faujasite. Dans un premier temps, nous nous sommes interessés à l'évolution de la distribution des ions sodium dans les zéolithes en fonction du rapport Si/Al et de la quantité d'eau adsorbée. L'introduction d'un nouveau biais statistique dans les simulations de Monte Carlo a permis d`accélérer notablement la convergence des calculs. Nous avons mis en évidence une hétéogénéité dans l'interaction eau-zéolithe et observé quatre sites d`adsorption d'eau différents. Cette étude a aidé à clarifier le mécanisme d`adsorption de l'eau dans les faujasites au sodium X et Y. Ce travail a ensuite été étendu à l'étude d'autres cations extra-charpentes. Ceci a nécessité la mise en place d'une méthodologie pour dériver des nouveaux paramètres pour le champ de force des cations. Les résultats obtenus permettent d'établir des prédictions sur les distributions cationiques et sur la thermodynamique de l'adsorption d'eau dans des faujasites totalement échangées mais aussi, et cela pour la première fois, pour des faujasites bicationiques
Adsoprtion properties of zeolites are closely related to the position of nonframework cations and to their accessibility to adsorbed molecules. But it is often difficult to localise these cations experimentaly, all the more than water is present. We have thus used molecular simulations in order to obtain more complete informations on extraframework cation distribution among the different crystallographic sites. First, we have focused our attention on sodium cation distribution in faujasite as a function of Si:Al ratio and adsorbed water amount. The introduction of a new bias has efficently enhanced our Monte Carlo simulations. We have showed an interesting heterogenity in water-zeolite interaction and distinguished four different water adsorbed sites. This study has helped to clarify the water adsorption mechanism in sodium faujasites of both X and Y types. We have then extended this study to others cations. For this purpose, we have developed a methodology to derive new force-field parameters for a given cation. Our results have permitted to predict cationic distribution and water adsorption thermodynamics in both totally exchanged faujasites and, for the first time, in bicationic faujasites
APA, Harvard, Vancouver, ISO, and other styles
38

Chen, Yuting. "Inférence bayésienne dans les modèles de croissance de plantes pour la prévision et la caractérisation des incertitudes." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0040/document.

Full text
Abstract:
La croissance des plantes en interaction avec l'environnement peut être décrite par des modèles mathématiques. Ceux-ci présentent des perspectives prometteuses pour un nombre considérable d'applications telles que la prévision des rendements ou l'expérimentation virtuelle dans le contexte de la sélection variétale. Dans cette thèse, nous nous intéressons aux différentes solutions capables d'améliorer les capacités prédictives des modèles de croissance de plantes, en particulier grâce à des méthodes statistiques avancées. Notre contribution se résume en quatre parties.Tout d'abord, nous proposons un nouveau modèle de culture (Log-Normal Allocation and Senescence ; LNAS). Entièrement construit dans un cadre probabiliste, il décrit seulement les processus écophysiologiques essentiels au bilan de la biomasse végétale afin de contourner les problèmes d'identification et d'accentuer l'évaluation des incertitudes. Ensuite, nous étudions en détail le paramétrage du modèle. Dans le cadre Bayésien, nous mettons en œuvre des méthodes Monte-Carlo Séquentielles (SMC) et des méthodes de Monte-Carlo par Chaînes de Markov (MCMC) afin de répondre aux difficultés soulevées lors du paramétrage des modèles de croissance de plantes, caractérisés par des équations dynamiques non-linéaires, des données rares et un nombre important de paramètres. Dans les cas où la distribution a priori est peu informative, voire non-informative, nous proposons une version itérative des méthodes SMC et MCMC, approche équivalente à une variante stochastique d'un algorithme de type Espérance-Maximisation, dans le but de valoriser les données d'observation tout en préservant la robustesse des méthodes Bayésiennes. En troisième lieu, nous soumettons une méthode d'assimilation des données en trois étapes pour résoudre le problème de prévision du modèle. Une première étape d'analyse de sensibilité permet d'identifier les paramètres les plus influents afin d'élaborer une version plus robuste de modèle par la méthode de sélection de modèles à l'aide de critères appropriés. Ces paramètres sélectionnés sont par la suite estimés en portant une attention particulière à l'évaluation des incertitudes. La distribution a posteriori ainsi obtenue est considérée comme information a priori pour l'étape de prévision, dans laquelle une méthode du type SMC telle que le filtrage par noyau de convolution (CPF) est employée afin d'effectuer l'assimilation de données. Dans cette étape, les estimations des états cachés et des paramètres sont mis à jour dans l'objectif d'améliorer la précision de la prévision et de réduire l'incertitude associée. Finalement, d'un point de vue applicatif, la méthodologie proposée est mise en œuvre et évaluée avec deux modèles de croissance de plantes, le modèle LNAS pour la betterave sucrière et le modèle STICS pour le blé d'hiver. Quelques pistes d'utilisation de la méthode pour l'amélioration du design expérimental sont également étudiées, dans le but d'améliorer la qualité de la prévision. Les applications aux données expérimentales réelles montrent des performances prédictives encourageantes, ce qui ouvre la voie à des outils d'aide à la décision en agriculture
Plant growth models aim to describe plant development and functional processes in interaction with the environment. They offer promising perspectives for many applications, such as yield prediction for decision support or virtual experimentation inthe context of breeding. This PhD focuses on the solutions to enhance plant growth model predictive capacity with an emphasis on advanced statistical methods. Our contributions can be summarized in four parts. Firstly, from a model design perspective, the Log-Normal Allocation and Senescence (LNAS) crop model is proposed. It describes only the essential ecophysiological processes for biomass budget in a probabilistic framework, so as to avoid identification problems and to accentuate uncertainty assessment in model prediction. Secondly, a thorough research is conducted regarding model parameterization. In a Bayesian framework, both Sequential Monte Carlo (SMC) methods and Markov chain Monte Carlo (MCMC) based methods are investigated to address the parameterization issues in the context of plant growth models, which are frequently characterized by nonlinear dynamics, scarce data and a large number of parameters. Particularly, whenthe prior distribution is non-informative, with the objective to put more emphasis on the observation data while preserving the robustness of Bayesian methods, an iterative version of the SMC and MCMC methods is introduced. It can be regarded as a stochastic variant of an EM type algorithm. Thirdly, a three-step data assimilation approach is proposed to address model prediction issues. The most influential parameters are first identified by global sensitivity analysis and chosen by model selection. Subsequently, the model calibration is performed with special attention paid to the uncertainty assessment. The posterior distribution obtained from this estimation step is consequently considered as prior information for the prediction step, in which a SMC-based on-line estimation method such as Convolution Particle Filtering (CPF) is employed to perform data assimilation. Both state and parameter estimates are updated with the purpose of improving theprediction accuracy and reducing the associated uncertainty. Finally, from an application point of view, the proposed methodology is implemented and evaluated with two crop models, the LNAS model for sugar beet and the STICS model for winter wheat. Some indications are also given on the experimental design to optimize the quality of predictions. The applications to real case scenarios show encouraging predictive performances and open the way to potential tools for yield prediction in agriculture
APA, Harvard, Vancouver, ISO, and other styles
39

Afsharpour, Hossein. "L’UTILISATION DES MÉTHODES MONTE CARLO POUR LA CARACTÉRISATION DES HÉTÉROGÉNÉITÉS ET DE LEURS CONSÉQUENCES RADIOBIOLOGIQUES EN CURIETHÉRAPIE." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28980/28980.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Mao, Lili. "Contribution à la résolution de l'équation de Boltzmann en multigroupe par les méthodes déterministes et Monte Carlo." Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11026.

Full text
Abstract:
La methode des courants d'interface et la methode de monte carlo pour la resolution de l'equation de transport multigroupe de particules neutres sont etudiees dans cette these. Une nouvelle version de la methode des courants d'interface est developpee dans le code tdt au serma en representant les courants d'interface par une fonction constante par morceaux sur la surface de l'angle solide. Le comportement de la convergence de cette methode vers la methode de probabilites de collision a ete teste. Puisque la technique de tracage des trajectoires est utilisee dans les methodes des probabilites de collision et des courants d'interface, il est indispensable de normaliser les probabilites de collision ainsi obtenues. Plusieurs techniques sont etudiees et implantees dans le code tdt, leurs performances sont comparees. Le traitement des matrices de transfert demeure une difficulte persistante pour la methode de monte carlo multigroupe, car la mis en groupe des sections efficaces de transfert provoque des parties negatives importantes dans les fonctions densites angulaires representees par les series de polynomes de legendre tronques. Plusieurs methodes basees sur la preservation des premiers moments, la methode de la representation par une fonction en angles discrets et la methode de la representation par une fonction en escalier equiprobable, ont ete etudiees et implantees dans le code trimaran-ii. Puisque aucune de ces methodes n'est completement satisfaisante, une nouvelle methode, la methode de la representation par une fonction en escaliers non equiprobables, a ete proposee et realisee. De nombreuses comparaisons ont ete effectuees, pour comparer la conservation des moments, les resultats d'un probleme de criticite, et les resultats d'un probleme de transport de neutrons dans l'eau. Les comparaisons nous ont montre que la nouvelle methode est la meilleure, et nous recommandons que cette methode soit la methode par defaut pour le traitement des matrices de transfert multigroupe.
APA, Harvard, Vancouver, ISO, and other styles
41

Allaya, Mouhamad M. "Méthodes de Monte-Carlo EM et approximations particulaires : application à la calibration d'un modèle de volatilité stochastique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010072/document.

Full text
Abstract:
Ce travail de thèse poursuit une perspective double dans l'usage conjoint des méthodes de Monte Carlo séquentielles (MMS) et de l'algorithme Espérance-Maximisation (EM) dans le cadre des modèles de Markov cachés présentant une structure de dépendance markovienne d'ordre supérieur à 1 au niveau de la composante inobservée. Tout d'abord, nous commençons par un exposé succinct de l'assise théorique des deux concepts statistiques à Travers les chapitres 1 et 2 qui leurs sont consacrés. Dans un second temps, nous nous intéressons à la mise en pratique simultanée des deux concepts au chapitre 3 et ce dans le cadre usuel ou la structure de dépendance est d'ordre 1, l'apport des méthodes MMS dans ce travail réside dans leur capacité à approximer efficacement des fonctionnelles conditionnelles bornées, notamment des quantités de filtrage et de lissage dans un cadre non linéaire et non gaussien. Quant à l'algorithme EM, il est motivé par la présence à la fois de variables observables, et inobservables (ou partiellement observées) dans les modèles de Markov Cachés et singulièrement les modèles de volatilité stochastique étudié. Après avoir présenté aussi bien l'algorithme EM que les méthodes MCS ainsi que quelques une de leurs propriétés dans les chapitres 1 et 2 respectivement, nous illustrons ces deux outils statistiques au travers de la calibration d'un modèle de volatilité stochastique. Cette application est effectuée pour des taux change ainsi que pour quelques indices boursiers au chapitre 3. Nous concluons ce chapitre sur un léger écart du modèle de volatilité stochastique canonique utilisé ainsi que des simulations de Monte Carlo portant sur le modèle résultant. Enfin, nous nous efforçons dans les chapitres 4 et 5 à fournir les assises théoriques et pratiques de l'extension des méthodes Monte Carlo séquentielles notamment le filtrage et le lissage particulaire lorsque la structure markovienne est plus prononcée. En guise d’illustration, nous donnons l'exemple d'un modèle de volatilité stochastique dégénéré dont une approximation présente une telle propriété de dépendance
This thesis pursues a double perspective in the joint use of sequential Monte Carlo methods (SMC) and the Expectation-Maximization algorithm (EM) under hidden Mar­kov models having a Markov dependence structure of order grater than one in the unobserved component signal. Firstly, we begin with a brief description of the theo­retical basis of both statistical concepts through Chapters 1 and 2 that are devoted. In a second hand, we focus on the simultaneous implementation of both concepts in Chapter 3 in the usual setting where the dependence structure is of order 1. The contribution of SMC methods in this work lies in their ability to effectively approximate any bounded conditional functional in particular, those of filtering and smoothing quantities in a non-linear and non-Gaussian settings. The EM algorithm is itself motivated by the presence of both observable and unobservable ( or partially observed) variables in Hidden Markov Models and particularly the stochastic volatility models in study. Having presented the EM algorithm as well as the SMC methods and some of their properties in Chapters 1 and 2 respectively, we illustrate these two statistical tools through the calibration of a stochastic volatility model. This application is clone for exchange rates and for some stock indexes in Chapter 3. We conclude this chapter on a slight departure from canonical stochastic volatility model as well Monte Carlo simulations on the resulting model. Finally, we strive in Chapters 4 and 5 to provide the theoretical and practical foundation of sequential Monte Carlo methods extension including particle filtering and smoothing when the Markov structure is more pronounced. As an illustration, we give the example of a degenerate stochastic volatility model whose approximation has such a dependence property
APA, Harvard, Vancouver, ISO, and other styles
42

Afsharpour, Hossein. "L'utilisation des méthodes Monte Carlo pour la caractérisation des hétérogénéités et de leurs conséquences radiobiologiques en curiethérapie." Doctoral thesis, Université Laval, 2012. http://hdl.handle.net/20.500.11794/23654.

Full text
Abstract:
Les algorithmes cliniques de dosimétrie en curiethérapie se basent principalement sur les recommandations du « Task Groupe 43 » de l'association américaine des physiciens en médecine. Ces algorithmes sont des méthodes approximatives de calcul de dose et négligent des phénomènes physiques importants qui affectent les distributions de dose. Tout d'abord, l'hétérogénéité des tissus est systématiquement négligée en remplaçant les tissus humains par de l'eau. Ainsi l'effet de la composition chimique et de la densité des tissus ne peut pas être pris en compte pour les calculs dosimétriques. Les méthodes de dosimétrie clinique négligent aussi l'impact de la présence des sources ou des applicateurs sur les distributions de dose. Le but de ce projet est d'étudier l'origine des hétérogénéités et de quantifier leurs impacts sur la dosimétrie et sur l'évaluation radiobiologique des traitements de curiethérapie par implant permanent. Pour cela, une plateforme de calcul dosimétrique est conçue en utilisant les méthodes Monte Carlo. Cette plateforme est capable de considérer et de reproduire la géométrie des implants en détails, sur la base du protocole DICOM-RT. Ainsi, la première partie de cette thèse sera entamée par une étude de l'atténuation intersource et son lien avec la conception des sources de curiethérapie. Nous allons ensuite étudier l'effet de l'hétérogénéité des tissus sur les distributions de dose et démontrerons la grande sensibilité de la curiethérapie du sein à la composition des tissus. La première partie de cette thèse sera complétée par une proposition de différents protocoles de segmentation des tissus du sein qui pourraient être utilisés en curiethérapie à basse énergie. Dans la deuxième partie de ce projet nous étudierons l'effet des hétérogénéités du milieu et de la dose sur l'évaluation radiobiologique en curiethérapie. Nous verrons comment l'efficacité radiobiologique est sous- ou sur-estimée quand la distribution de dose n'est pas considérée de façon appropriée. Finalement nous allons tenter d'apporter un élément de réponse au débat sur la valeur du paramètre de la radiosensibilité pour le cancer de la prostate. Nous démontrerons que l'estimation de a/ft pour le cancer de la prostate change dépendamment du niveau d'hétérogénéité considéré dans les calculs dosimétriques.
APA, Harvard, Vancouver, ISO, and other styles
43

Toulouse, Julien. "Développements méthodologiques en chimie quantique : méthodes de Monte Carlo quantique et théorie de la fonctionnelle de la densité." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00851489.

Full text
Abstract:
Ce document résume mes activités de recherche depuis 2005 portant sur le développement de méthodes pour calculer la structure électronique de systèmes moléculaires et s'organisant autour de deux thématiques : (1) Méthodes de Monte Carlo quantique (QMC) : j'ai développé plusieurs aspects des méthodes QMC pour pouvoir faire des calculs de référence en chimie quantique (méthodes d'optimisation des fonctions d'onde pour états fondamentaux et excités, nouvelles formes de fonctions d'onde explicitement corrélées et estimateurs statistiques améliorés pour les observables); (2) Théorie de la fonctionnelle de la densité (DFT) : afin d'améliorer la précision de la DFT actuelle, j'ai développé plusieurs méthodes qui combinent rigoureusement la DFT avec des calculs de fonctions d'onde corrélées utilisant une décomposition de l'interaction électron-électron (hybrides à séparation de portée, approximations "doubles hybrides" et hybrides multiconfigurationnels).
APA, Harvard, Vancouver, ISO, and other styles
44

Amharrak, Hicham. "Développement et optimisation de méthodes de mesures d'échauffements nucléaires et de flux gamma dans les réacteurs expérimentaux : identification, maîtrise, traitement et réduction des incertitudes associées." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4705.

Full text
Abstract:
L'objectif de cette thèse vise à mettre au point et à améliorer les méthodes de mesures d'échauffements nucléaires auprès des maquettes critiques du CEA-Cadarache EOLE et MINERVE, au moyen de détecteurs thermo-luminescents (TLD), de détecteurs à luminescence optiquement stimulée (OSLD – nouvellement mis en œuvre dans le cadre de ce travail de thèse) et d'une chambre d'ionisation. Il s'agit d'identifier, de hiérarchiser, de traiter et enfin de réduire les différentes sources d'incertitudes et de biais systématiques associés à la mesure.Une série d'expériences a été mise en place dans le réacteur MINERVE. Les mesures ont été réalisées dans un environnement en aluminium ou en hafnium à l'aide d'un nouveau protocole : les TLD ont été étalonnés individuellement, la répétabilité de la mesure a été évaluée expérimentalement et les lois de chauffe des TLD ont été optimisées, conduisant à une réduction des incertitudes de mesures. Des mesures de gammas émis de façon différée après arrêt du réacteur MINERVE ont également été réalisées : les résultats obtenus montrent un bon accord des mesures avec les trois types de détecteurs utilisés.L'interprétation de ces mesures nécessite des calculs pour tenir compte des facteurs de correction, liés à l'environnement et au type de détecteurs utilisés. Ainsi, des corrections de la contribution des neutrons à la dose totale intégrée par les détecteurs ont été évaluées à l'aide de deux méthodes de calcul. Ces corrections ont été obtenues sur la base de simulations Monte Carlo couplées neutron-gamma et gamma-électron à l'aide du code MCNP
The objective of this thesis is to develop and to improve the nuclear heating measurement methods in MINERVE and EOLE experimental reactors at CEA-Cadarache, using thermo-luminescent detectors (TLD), optically stimulated luminescence detectors (OSLD – newly implemented in the context of this thesis) and an ionization chamber. It is to identify, prioritize, treat and reduce the various sources of uncertainty and systematic bias associated with the measurement.A series of experiments was set up in the MINERVE reactor. The measurements were carried out in an aluminum or hafnium surrounding using a new procedure methodology. The TLD are calibrated individually, the repeatability of the measurement is experimentally evaluated and the laws of TLD heat are optimized. The measurements of the gamma emitted, with a delay (delayed gamma) after shutdown of the MINERVE reactor, were also carried out using TLD and OSLD detectors with the aluminum pillbox as well as by ionization chamber. The results show a good correlation between the measurements recorded by these three detectors.The interpretation of these measurements needs to take account the calculation of cavity correction factors related to the surrounding and the type of detector used. Similarly, the correction due to the neutrons contributions to the total dose integrated by the detectors are evaluated with two calculation methods. These corrections are based on Monte Carlo simulations of neutron-gamma and gamma-electron transport coupled particles using the MCNP
APA, Harvard, Vancouver, ISO, and other styles
45

Sellami, Afef. "Méthodes de quantification optimale pour le filtrage et applications à la finance." Phd thesis, Université Paris Dauphine - Paris IX, 2005. http://tel.archives-ouvertes.fr/tel-00011586.

Full text
Abstract:
Nous développons une approche de résolution numérique du filtrage par méthode de grille, en utilisant des résultats de quantification optimale de variables aléatoires. Nous mettons en oeuvre deux algorithmes de calcul de filtres utilisant les techniques d'approximation du type ordre 0 et ordre 1. Nous proposons les versions implémentables de ces algorithmes et étudions le comportement de l'erreur des approximations en fonction de la taille des quantifieurs en s'appuyant sur la propriété de stationnarité des quantifieurs optimaux. Nous positionnons cette approche par grille par rapport à l'approche particulaire du type Monte Carlo à travers la comparaison des deux méthodes et leur expérimentation sur différents modèles d'états. Dans une seconde partie, nous nous intéressons à l'avantage qu'offre la quantification pour le prétraitement des données offline pour développer un algorithme de filtrage par quantification des observations (et du signal). L'erreur est là aussi étudiée et un taux de convergence est établi en fonction de la taille des quantifieurs. Enfin, la quantification du filtre en tant que variable aléatoire est étudiée dans le but de la résolution d'un problème d'évaluation d'option américaine dans un marché à volatilité stochastique non observée. Tous les résultats sont illustrés à travers des exemples numériques.
APA, Harvard, Vancouver, ISO, and other styles
46

Zhang, Lei. "Localisation markovienne de systèmes mono-robot et multi-robots utilisant des échantillons auto-adaptatifs." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20003/document.

Full text
Abstract:
Afin de parvenir à l'autonomie des robots mobiles, la localisation efficace est une condition préalable nécessaire. Le suivi de position, la localisation globale et le problème du robot kidnappé sont les trois sous-problèmes que nous étudions. Dans cette thèse, nous comparons en simulation trois algorithmes de localisation Markovienne. Nous proposons ensuite une amélioration de l'algorithme de localisation de Monte Carlo par filtre particulaire. Cet algorithme (nommé SAMCL) utilise des particules auto-adaptatives. En employant une technique de pré-mise en cache pour réduire le temps de calcul en ligne, l'algorithme SAMCL est plus efficace que la méthode de Monte Carlo usuelle. En outre, nous définissons la notion de région d'énergie similaire (SER), qui est un ensemble de poses (cellules de la grille) dont l'énergie-capteur est similaire avec celle du robot dans l'espace réel. En distribuant les échantillons globaux dans SER lieu de les distribuer au hasard dans la carte, SAMCL obtient une meilleure performance dans la localisation et résout ces trois sous-problèmes. La localisation coopérative de plusieurs robots est également étudiée. Nous avons développé un algorithme (nommé PM) pour intégrer l'information de localisation échangée par les robots lors d'une rencontre au cours d'une mission commune. Cet algorithme apparaît comme une extension à l'algorithme de SAMCL et a été validé en simulation. La validité et l'efficacité de notre approche sont démontrées par des expériences sur un robot réel évoluant dans un environnement connu et préalablement cartographié
In order to achieve the autonomy of mobile robots, effective localization is a necessary prerequisite. In this thesis, we study and compare three regular Markov localization algorithms by simulations. Then we propose an improved Monte Carlo localization algorithm using self-adaptive samples, abbreviated as SAMCL. By employing a pre-caching technique to reduce the on-line computational burden, SAMCL is more efficient than regular MCL. Further, we define the concept of similar energy region (SER), which is a set of poses (grid cells) having similar energy with the robot in the robot space. By distributing global samples in SER instead of distributing randomly in the map, SAMCL obtains a better performance in localization. Position tracking, global localization and the kidnapped robot problem are the three sub-problems of the localization problem. Most localization approaches focus on solving one of these sub-problems. However, SAMCL solves all the three sub-problems together thanks to self-adaptive samples that can automatically separate themselves into a global sample set and a local sample set according to needs. Cooperative localization among multiple robots is carried out by exchanging localization information derived from cooperation. We devise the Position Mapping (PM) algorithm to integrate this information, which can merge into the SAMCL algorithm as an extension. The validity and the efficiency of our algorithms are demonstrated by experiments carried out with a real robot in a structured and known environment
APA, Harvard, Vancouver, ISO, and other styles
47

Labart, Celine. "EDSR: analyse de discrétisation et résolution par méthodes de Monte Carlo adaptatives;Perturbation de domaines pour les options américaines." Phd thesis, Ecole Polytechnique X, 2007. http://tel.archives-ouvertes.fr/tel-00199861.

Full text
Abstract:
Deux thématiques différentes des probabilités numériques et de leurs applications financières sont abordées dans ma thèse: l'une traite de l'approximation et de la simulation d'équations différentielles stochastiques rétrogrades (EDSR), l'autre est liée aux options américaines et les aborde du point de vue de l'optimisation de domaine et des perturbations de frontière.

La première partie de ma thèse revisite la question d'analyse de convergence dans la discrétisation en temps d' EDSR markoviennes (Y,Z) en une équation de programmation dynamique de n pas de temps. Nous établissons un développement limité à l'ordre 1 de l'erreur sur (Y,Z) : précisément, l'erreur trajectorielle sur X se transfère intégralement sur l'EDSR et montre ainsi que si X est approché avec précision ou simulé exactement, de meilleurs vitesses sont possibles (en 1/n).

La seconde partie de ma thèse s'intéresse à la résolution des EDSR via le procédé de Picard et les méthodes de Monte Carlo séquentielles. Nous avons montré que la convergence de notre algorithme a lieu à vitesse géométrique et avec une précision indépendante au 1er ordre du nombre de simulations.

La dernière partie de ma thèse regroupe des premiers résultats sur la valorisation d'options américaines par optimisation de la frontière d'exercice. La clé de voûte de ce type d'approche est la capacité à évaluer un gradient par rapport à la frontière. Le temps continu a été traité par Costantini et al (2006) et cette thèse couvre le cas discret des options Bermuda.
APA, Harvard, Vancouver, ISO, and other styles
48

Lambart, Céline. "EDSR: analyse de discrétisation et résolution par méthodes de Monte Carlo adaptatives : perturbation de domaines pour les options américaines." Palaiseau, Ecole polytechnique, 2007. http://www.theses.fr/2007EPXX0020.

Full text
Abstract:
Deux thématiques différentes des probabilités numériques et de leurs applications financières sont abordées dans ma thèse: l'une traite de l'approximation et de la simulation d'équations différentielles stochastiques rétrogrades (EDSR), l'autre est liée aux options américaines et les aborde du point de vue de l'optimisation de domaine et des perturbations de frontière. La première partie de ma thèse revisite la question d'analyse de convergence dans la discrétisation en temps d' EDSR markoviennes (Y,Z) en une équation de programmation dynamique de n pas de temps. Nous établissons un développement limité à l'ordre 1 de l'erreur sur (Y,Z) : précisément, l'erreur trajectorielle sur X se transfère intégralement sur l'EDSR et montre ainsi que si X est approché avec précision ou simulé exactement, de meilleurs vitesses sont possibles (en 1/n). La seconde partie de ma thèse s'intéresse à la résolution des EDSR via le procédé de Picard et les méthodes de Monte Carlo séquentielles. Nous avons montré que la convergence de notre algorithme a lieu à vitesse géométrique et avec une précision indépendante au 1er ordre du nombre de simulations. La dernière partie de ma thèse regroupe des premiers résultats sur la valorisation d'options américaines par optimisation de la frontière d'exercice. La clé de voûte de ce type d'approche est la capacité à évaluer un gradient par rapport à la frontière. Le temps continu a été traité par Costantini et al (2006) et cette thèse couvre le cas discret des options Bermuda.
APA, Harvard, Vancouver, ISO, and other styles
49

DERRIENNIC, OURLY HELENE. "Etude et optimisation des méthodes de Monte Carlo non analogues pour la simulation des particules neutres en radio-protection." Paris, CNAM, 1999. http://www.theses.fr/1999CNAM0312.

Full text
Abstract:
La modelisation et la simulation en radio-protection ont pour but d'evaluer l'intensite de rayonnements ionisants, emis lors de reactions nucleaires, a une certaine distance de leur source. Ceci necessite la resolution de l'equation du transport des particules dans les materiaux. La methode de monte carlo, etant la seule methode numerique permettant de prendre en compte de facon detaillee les interactions particule-matiere et la geometrie du probleme, est frequemment utilisee dans ce domaine. Mais, lorsque la quantite cherchee depend d'evenements tres peu probables de la trajectoire des particules, un nombre extremement grand de simulations s'impose pour obtenir une variance faible des techniques d'acceleration de convergence doivent donc etre mises en uvre pour que les calculs soient realisables pratiquement. Certaines d'entre elles consistent a modifier (a biaiser) la loi des trajectoires echantillonnees en fonction du resultat cherche, dans le but de diminuer l'incertitude sur le resultat. L'utilisation de ces techniques est rendue tres delicate par le fait que les parametres de biaisage, definissant ces simulations, doivent etre ajustes finement pour chaque calcul d'une part, pour que le biaisage engendre un gain d'efficacite des simulations, d'autre part, pour eviter les problemes de sur-biaisage entrainant une mauvaise estimation du resultat, qui apparaissent lorsque les parametres de biaisage utilises sont trop grands. Jusqu'a present, ces parametres etaient fixes manuellement par l'utilisateur. Nous proposons, dans cette these, d'exploiter des informations sur la variance, recueillies en cours de simulation, pour optimiser le choix des parametres de biaisage, de facon quasi-automatique. Nous avons mis en uvre ce principe dans un programme monte carlo de resolution de l'equation du transport. Des resultats tres interessants sont obtenus. Nous avons d'autre part fait une analyse plus approfondie, basee sur l'etude de marches aleatoires biaisees simplifiees, du principe de biaisage et du phenomene de sur-biaisage, qui represente un danger majeur en radio-protection puisqu'il entraine une sous-estimation de la quantite cherchee. Nous avons ainsi mis en evidence numeriquement, et en partie theoriquement, les limites et les dangers de ces techniques de biaisage. Cette these presente donc des outils nouveaux permettant d'optimiser l'efficacite des simulations biaisees et d'eliminer le risque de sur-biaisage.
APA, Harvard, Vancouver, ISO, and other styles
50

Guillot, Ludovic. "Spectrométrie gamma aéroportée : étude de nouvelles méthodes de traitement spectral et de calibration permettant une interprétation qualitative et quantitative des mesures." Dijon, 1996. http://www.theses.fr/1996DIJOS062.

Full text
Abstract:
La spectrométrie gamma aéroportée, tout d'abord utilisée pour la prospection minière, s'affirme aujourd'hui comme un moyen de diagnostic efficace et rapide pour la surveillance radiologique de l'environnement ou l'intervention en cas d'incident nucléaire. Les mesures se singularisent par une statistique de comptage très pauvre et des détecteurs d'iodure de sodium de résolution médiocre. Un algorithme de détection et de calcul des pics d'absorption adapté à ces caractéristiques a été développé. Les performances obtenues sont comparables à celles de la méthode de déconvolution par fenêtres énergétiques, traditionnellement utilisée pour la mesure des radioéléments naturels. Ce nouveau traitement a la particularité de ne pas nécessiter d'hypothèse sur le nombre ou la nature des radioéléments présents. La mesure en laboratoire des composantes spectrales induites par chaque radioélément a également permis d'étendre la méthode de déconvolution par fenêtres à l'ensemble du spectre. Un dispositif expérimental de simulation des conditions de survol d'une surface active a été réalisé au laboratoire afin d'étudier l'évolution des profils spectraux avec l'altitude de détection. L'influence de l'extension verticale de la source dans le sol a ensuite été établie numériquement par méthode de Monte-Carlo. Cette méthode de calibration originale permet d'obtenir en laboratoire l'ensemble des données nécessaires à l'analyse qualitative et quantitative des mesures. Les techniques d'analyse spectrale et de calibration élaborées au cours de ces travaux sont complémentaires des méthodes existantes. Leur association permettra une détection en temps réel et un calcul de l'activité des radioéléments dont les raies d'émission sont comprises entre 50 et 2800 keV
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography