To see the other types of publications on this topic, follow the link: Recherche Monte-Carlo.

Dissertations / Theses on the topic 'Recherche Monte-Carlo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 37 dissertations / theses for your research on the topic 'Recherche Monte-Carlo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gilquin, Laurent. "Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM042/document.

Full text
Abstract:
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus<br>Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented
APA, Harvard, Vancouver, ISO, and other styles
2

Cornu, Marek. "Local Search, data structures and Monte Carlo Search for Multi-Objective Combinatorial Optimization Problems." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED043/document.

Full text
Abstract:
De nombreux problèmes d'optimisation combinatoire considèrent plusieurs objectifs, souvent conflictuels. Cette thèse s'intéresse à l'utilisation de méthodes de recherche locale, de structures de données et de recherche Monte-Carlo pour la recherche de l'ensemble des solutions efficaces de tels problèmes, représentant l'ensemble des meilleurs compromis pouvant être réalisés en considération de tous les objectifs.Nous proposons une nouvelle méthode d'approximation appelée 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combinant les concepts de recherche locale Pareto (PLS) et de décomposition. La PLS est une descente de recherche locale adaptée au multi-objectif, et la décomposition consiste en la subdivision du problème multi-objectif en plusieurs problèmes mono-objectif. Deux méthodes d'optimisation mono-objectif sont considérées: la recherche locale itérée et la recherche Monte-Carlo imbriquée. Deux modules principaux sont intégrés à 2PIPLS/D. Le premier généralise et améliore une méthode existante et génère un ensemble initial de solutions. Le second réduit efficacement l'espace de recherche et permet d'accélérer la PLS sans négliger la qualité de l'approximation générée. Nous introduisons aussi deux nouvelles structures de données gérant dynamiquement un ensemble de solutions incomparables, la première est spécialisée pour le cas bi-objectif et la seconde pour le cas général.2PIPLS/D est appliquée au Problème du Voyageur de Commerce bi-objectif et tri-objectif et surpasse ses concurrents sur les instances testées. Ensuite, 2PIPLS/D est appliquée à un nouveau problème avec cinq objectifs en lien avec la récente réforme territoriale d'agrandissement des régions françaises<br>Many Combinatorial Optimization problems consider several, often conflicting, objectives. This thesis deals with Local Search, data structures and Monte Carlo Search methods for finding the set of efficient solutions of such problems, which is the set of all best possible trade-offs given all the objectives.We propose a new approximation method called 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combining the notions of Pareto Local Search (PLS) and Decomposition. PLS is a local search descent adapted to Multi-Objective spaces, and Decomposition consists in the subdivision of the Multi-Objective problem into a number of Single-Objective problems. Two Single-Objective methods are considered: Iterated Local Search and Nested Monte Carlo Search. Two main components are embedded within the 2PIPLS/D framework. The first one generalizes and improves an existing method generating an initial set of solutions. The second one reduces efficiently the search space and accelerates PLS without notable impact on the quality of the generated approximation. We also introduce two new data structures for dynamically managing a set of incomparable solutions. The first one is specialized for the bi-objective case, while the second one is general.2PIPLS/D is applied to the bi-objective and tri-objective Traveling Salesman Problem and outperforms its competitors on tested instances. Then, 2PIPLS/D is instantiated on a new five-objective problem related to the recent territorial reform of French regions which resulted in the reassignment of departments to new larger regions
APA, Harvard, Vancouver, ISO, and other styles
3

DOS, SANTOS-UZARRALDE PIERRE JACQUES. "Automatisation de la recherche des fonctions d'importances pour le transport des particules neutres par la methode monte-carlo." Paris 6, 1990. http://www.theses.fr/1990PA066482.

Full text
Abstract:
La propagation des particules neutres (neutron et gamma) dans la matiere est regie rigoureusement par l'equation de boltzmann. Cette equation permet d'exprimer des grandeurs macroscopiques (flux) traduisant le comportement d'un grand nombre de particules. A l'echelle microscopique, le comportement individuel de chaque particule est strictement aleatoire. La methode de monte-carlo, methode statistique, est basee sur l'application des proprietes des variables aleatoires et sur l'utilisation des techniques d'echantillonnage. Elle permet de traiter les configurations geometriques tridimensionnelles en respectant les lois de la collision. Ainsi, la simulation passe donc par la construction de la succession d'evenements qui modifient les coordonnees des particules dans l'espace des phases depuis leur naissance et jusqu'a leur disparition par fuite hors du systeme physique considere ou par absorption dans ce systeme. En pratique, la resolution d'un probleme par la methode de monte-carlo consiste a effectuer la demarche suivante: 1) on definit un processus aleatoire, appele jeu, dont le deroulement permet la realisation d'epreuves a chacune desquelles est attribuee une valeur numerique appelee score. 2) on estime l'esperance mathematique du score par la moyenne arithmetique de l'echantillon (loi des grands nombres). Cependant un probleme caracteristique pose par les etudes de protection notamment pour les calculs de longues penetrations des rayonnements dans la matiere, est la faible probabilite naturelle de voir la particule contribuer au resultat final. Il est donc indispensable d'avoir recours a des procedes d'optimisation de la methode, permettant de reduire le temps de calcul sans alterer la precision des resultats. Le principe d'une technique de biaisage consiste a effectuer un changement d'inconnue dans l'equation de boltzmann. I(x) est une fonction positive arbitraire imposee appelee fonction d'importance. Le choix de cette fonction est un probleme important puisqu'il determine la precision sur le resultat. L'objet de notre etude consiste essentiellement a mettre au point un processus automatique qui permet la determination des parametres de biaisage optimaux. Les considerations physiques et les techniques mathematiques developpees dans ce travail sont essentiellement elaborees a partir de methodes couramment utilisees dans des domaines tels que la reconnaissance des formes et la classification automatique
APA, Harvard, Vancouver, ISO, and other styles
4

Saggadi, Samira. "Simulation d'événements rares par Monte Carlo dans les réseaux hautement fiables." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00940140.

Full text
Abstract:
Le calcul de la fiabilité des réseaux est en général un problème NP-difficile. On peut par exemple, s'intéresser à la fiabilité des systèmes de télécommunications où l'on veut évaluer la probabilité qu'un groupe sélectionné de noeuds (qui peut être juste une paire) puissent communiquer, ou s'intéresser aux systèmes d'alimentation électriques où l'on veut estimer le risque que l'électricité n'est pas fournie à certains noeuds, ou encore, étudier la fiabilité des systèmes de transport, où les liens représentent les routes et sont soumis à des dommages. Dans tous ces cas, un ensemble de noeuds déconnectés peut avoir des conséquences critiques, que ce soit financières ou au niveau de la sécurité. Une estimation précise de la fiabilité est ainsi nécessaire. Les réseaux de communication moderne se caractérisent par leur grande taille, donc l'estimation via la simulation de Monte Carlo devient souvent un choix favorable. Un algorithme de Monte Carlo sous sa forme standard, échantillonne N réalisations du graphe (représentant le réseau) indépendantes, et la défiabilité est estimée à partir de la proportion des N réalisations pour lesquelles les noeuds sélectionnés ne sont pas connectés. Dans ces réseaux, les probabilités de défaillance des liens (arcs) sont généralement petites et donc les pannes d'un réseau deviennent des événements rares. Cela pose un défi majeur pour estimer la fiabilité d'un réseau. Dans cette thèse, nous présentons différentes techniques basées sur l'échantillonnage préférentiel (Importance Sampling en anglais IS), pour l'estimation de la fiabilité d'un réseau. Grace à cette technique les probabilités originales d'échantillonnage des arcs sont remplacées par de nouvelles probabilités, puis multiplier l'ancien estimateur par le quotient de vraisemblance (likelihood ratio) pour rester sans biais. On s'intéresse tout particulièrement à l'étude et au calcul de la fiabilité des réseaux hautement fiables et représentés par des graphes statiques. Dans ce cas la défiabilité est très petite, parfois de l'ordre de 10−10, ce qui rend l'approche standard de Monte Carlo inutile, car pour pouvoir estimer cette probabilité il nous faut un échantillon de taille supérieure à dix milliards. Pour une bonne estimation de la fiabilité des réseaux au moindre coût, nous avons étudié, analysé et développé les points suivants : - En premier lieu nous avons développé une méthode basée sur l'échantillonnage préférentiel. Le processus d'échantillonnage de tous les arcs du graphe sous la nouvelle probabilité est représenté par une chaîne de Markov, telle qu'à chaque étape on détermine l'état d'un arc avec une nouvelle probabilité déterminée en fonction de l'état de tous les arcs précédemment échantillonnés. Les fonctions valeurs de la nouvelle probabilité sont approchées par les coupes minimales possédant la plus grande probabilité de défiabilité, elle est le produit des défiabilités des arcs de la coupe. Des preuves de bonnes propriétés de l'estimateur basé sur l'échantillonnage préférentiel sont faites. - Un deuxième point a été abordé et développé, consiste à appliquer des techniques de réduction série-parallèle à chaque étape de l'échantillonnage IS précédemment décrit, afin de réduire substantiellement et la variance et le temps de simulation. - Le dernier point consiste à combiner pour approximation de l'estimateur à variance nulle, l'approximation de la défiabilité par une coupe minimale qui sous-estime la défiabilité avec une autre approximation basée sur les chemins minimaux qui la sur-estime. Des algorithmes d'optimisation sont utilisés pour rechercher le facteur optimal d'ajustement des deux approximations pour minimiser la variance.
APA, Harvard, Vancouver, ISO, and other styles
5

Bosc, Guillaume. "Anytime discovery of a diverse set of patterns with Monte Carlo tree search." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI074/document.

Full text
Abstract:
La découverte de motifs qui caractérisent fortement une classe vis à vis d'une autre reste encore un problème difficile en fouille de données. La découverte de sous-groupes (Subgroup Discovery, SD) est une approche formelle de fouille de motifs qui permet la construction de classifieurs intelligibles mais surtout d'émettre des hypothèses sur les données. Cependant, cette approche fait encore face à deux problèmes majeurs : (i) comment définir des mesures de qualité appropriées pour caractériser l'intérêt d'un motif et (ii) comment sélectionner une méthode heuristique adaptée lorsqu’une énumération exhaustive de l'espace de recherche n'est pas réalisable. Le premier problème a été résolu par la fouille de modèles exceptionnels (Exceptional Model Mining, EMM) qui permet l'extraction de motifs couvrant des objets de la base de données pour lesquels le modèle induit sur les attributs de classe est significativement différent du modèle induit par l'ensemble des objets du jeu de données. Le second problème a été étudié en SD et EMM principalement avec la mise en place de méthodes heuristiques de type recherche en faisceau (beam-search) ou avec des algorithmes génétiques qui permettent la découverte de motifs non redondants, diversifiés et de bonne qualité. Dans cette thèse, nous soutenons que la nature gloutonne des méthodes d'énumération précédentes génère cependant des ensembles de motifs manquant de diversité. Nous définissons formellement la fouille de données comme un jeu que nous résolvons par l'utilisation de la recherche arborescente de Monte Carlo (Monte Carlo Tree Search, MCTS), une technique récente principalement utilisée pour la résolution de jeux et de problèmes de planning en intelligence artificielle. Contrairement aux méthodes traditionnelles d'échantillonnage, MCTS donne la possibilité d'obtenir une solution à tout instant sans qu'aucune hypothèse ne soit faite que ce soit sur la mesure de qualité ou sur les données. Cette méthode d'énumération converge vers une approche exhaustive si les budgets temps et mémoire disponibles sont suffisants. Le compromis entre l'exploration et l'exploitation que propose cette approche permet une augmentation significative de la diversité dans l'ensemble des motifs calculés. Nous montrons que la recherche arborescente de Monte Carlo appliquée à la fouille de motifs permet de trouver rapidement un ensemble de motifs diversifiés et de bonne qualité à l'aide d'expérimentations sur des jeux de données de référence et sur un jeu de données réel traitant de l'olfaction. Nous proposons et validons également une nouvelle mesure de qualité spécialement conçue pour des jeux de donnée multi labels présentant une grande variance de fréquences des labels<br>The discovery of patterns that strongly distinguish one class label from another is still a challenging data-mining task. Subgroup Discovery (SD) is a formal pattern mining framework that enables the construction of intelligible classifiers, and, most importantly, to elicit interesting hypotheses from the data. However, SD still faces two major issues: (i) how to define appropriate quality measures to characterize the interestingness of a pattern; (ii) how to select an accurate heuristic search technique when exhaustive enumeration of the pattern space is unfeasible. The first issue has been tackled by Exceptional Model Mining (EMM) for discovering patterns that cover tuples that locally induce a model substantially different from the model of the whole dataset. The second issue has been studied in SD and EMM mainly with the use of beam-search strategies and genetic algorithms for discovering a pattern set that is non-redundant, diverse and of high quality. In this thesis, we argue that the greedy nature of most such previous approaches produces pattern sets that lack diversity. Consequently, we formally define pattern mining as a game and solve it with Monte Carlo Tree Search (MCTS), a recent technique mainly used for games and planning problems in artificial intelligence. Contrary to traditional sampling methods, MCTS leads to an any-time pattern mining approach without assumptions on either the quality measure or the data. It converges to an exhaustive search if given enough time and memory. The exploration/exploitation trade-off allows the diversity of the result set to be improved considerably compared to existing heuristics. We show that MCTS quickly finds a diverse pattern set of high quality in our application in neurosciences. We also propose and validate a new quality measure especially tuned for imbalanced multi-label data
APA, Harvard, Vancouver, ISO, and other styles
6

Kim, Do-Won. "Recherche d'événements multihadroniques produits avec une paire de leptons dans l'annihilation e⁺ e⁻." Paris 11, 1988. http://www.theses.fr/1988PA112137.

Full text
Abstract:
Un événement spectaculaire du type µ⁺-µ⁻ jet jet a été observé dans le détecteur CELLO à PETRA. Dans cet événement les masses invariantes des paires µ⁺ µ⁻, jet-jet, et, µ-jet sont toutes grandes, ce qui représente une configuration peu probable en terme de processus connus. Dans cette thèse, une recherche d'événements de ce type ainsi que d'événements d'une topologie approchante a été faite avec une statistique largement augmentée. Une comparaison entre les données ainsi obtenues et les prédictions effectuées à partir des processus QED à l'ordre α4 (e⁺e- →l ⁺l⁻ qq ) d'une part, des désintégrations semileptoniques de saveurs lourdes d'autre part, montre un bon accord entre l'observation et la théorie<br>A peculiar event of the type type µ⁺-µ⁻ jet jet has been observed by the CELLO detector at PETRA. In this event the invariant masses of the µ⁺ µ⁻, jet-jet, and µ-jet pairs are all large and such an event was unlikely to occur from the known processes with the data accumulated at that time. Using a largely increased statistics, events topologically similar to this one were selected and compared with the expectation from the α4-QED processes (e⁺e- →l ⁺l⁻ qq) and from the semileptonic decay of heavy flavors. Good agreement is observed between the Monte Carlo prediction and the data
APA, Harvard, Vancouver, ISO, and other styles
7

Chabane, Hinde. "Contribution à la validation expérimentale de l'approche Monte-Carlo de l'interaction neutron-silicium utilisée dans des codes de physique nucléaire dédiées au calcul de SER des mémoires SRAM." Montpellier 2, 2006. http://www.theses.fr/2006MON20164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Rolet, Philippe. "Eléments pour l'apprentissage et l'optimisation de fonctions chères." Paris 11, 2010. http://www.theses.fr/2010PA112217.

Full text
Abstract:
Ces travaux de doctorat sont centrés sur l'apprentissage artificiel et l'optimisation, c'est à dire la construction de programmes apprenant à identifier un concept, à approximer une fonction ou à trouver un optimum à partir d'exemples de ce concept (ou de points de la fonction). Le contexte applicatif est l'apprentissage et l'optimisation de modèles simplifiés en ingénierie numérique, pour des problèmes industriels pour lesquels les exemples sont coûteux à obtenir. Il est nécessaire d'en utiliser le moins possible pour l'apprentissage; c'est le principe de l'apprentissage actif et de l'optimisation de fonction chères. Mes efforts de recherche ont d'abord porté sur la conception et le développement d'une nouvelle approche de l'apprentissage Actif, fondée sur l'apprentissage par renforcement. Les fondements théoriques de l'approche ont été établis. Parallèlement, l'implémentation d'un logiciel fondé sur cette approche, BAAL, a permis une validation expérimentale (publications: CAP'09, ECML'09). Une extension de cette approche a été réalisée pour l'optimisation de fonction chères (publication : GECCO 2009). La deuxième partie de mon doctorat s'intéresse aux potentiels et aux limites de l'apprentissage actif et de l'optimisation chère d'un point de vue théorique. Une étude des bornes de complexités de l'apprentissage actif par "paquets" a été réalisée (publication : ECML 2010). Dans le domaine de l'optimisation bruitée, des résultats sur le nombre minimal d'exemples nécessaires pour trouver un optimum ont été obtenus (publications: LION 2010, EvoSTAR 2010)<br>This thesis focuses on leaming and optimizing expensive functions, that is the design of algorithms that can learn to identify a concept, to approximate a function or to find an optimum given exemples of the concept or points of the function. The motivating application is learning and optimizing simplified models in numerical engineering, for industrial problems for which examples are costly to obtain. Lt is then a requirement to use as few examples as possible for learning: this is the main characteristic of active learning and expensive optimization. This work first focuses on the design and development of a new approach to active leaming, based on reinforcement learning. Theoretical groundings for the approach are laid out, and a software inspired by the approach, BAAL, enables experimental vaildation (publications: CAP09, ECML09). An extension of this approach for expensive optimisation was devised (publication: GECCO 2009). The second part of this work is interested in the potential and Iimits of active learning and optimisation on a theoretical angle. Proofs of sample complexity bounds for batch active learning are published in ECML 2010. Regarding noisy optimization, results on the minimal number of examples necessary to find an optimum on various class of functions were derived (LION 2010, EvoSTAR 2010)
APA, Harvard, Vancouver, ISO, and other styles
9

Fulconis, Renaud. "Recombinaison homologue sur molécules d'ADN individuelles : expériences et modélisation." Paris 6, 2004. http://www.theses.fr/2004PA066456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Berthon, Julie Deshouillers Jean-Marc Dutuit Yves. "Nouvelle approche de la fiabilité opérationnelle." S. l. : Bordeaux 1, 2008. http://ori-oai.u-bordeaux1.fr/pdf/2008/BERTHON_JULIE_2008.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Bounaceur, Arezki. "Interaction lit fluidisé de particules solides-rayonnement solaire concentré pour la mise au point d’un procédé de chauffage de gaz à plus de 1000 K." Paris, ENMP, 2008. http://pastel.paristech.org/5281/01/These-Bounaceur.pdf.

Full text
Abstract:
A l'heure actuelle les énergies fossiles traditionnelles (pétrole, charbon…) commencent à s'épuiser, ce qui pousse l'humanité à chercher d'autres sources d'énergie pour subvenir à ses besoins. La nature recèle beaucoup de sources d'énergie inépuisables et non polluantes comme l'énergie solaire, la biomasse et l'énergie éolienne. La disponibilité de l'énergie solaire, sa gratuité et son renouvellement encouragent sa collecte et son exploitation. L'énergie solaire peut être collectée pour diverses utilisations comme la réalisation d'une réaction chimique endothermique ou la production de l'électricité. La production de l'électricité solaire est opérée soit par des procédés photovoltaïques, soit par des procédés thermodynamiques. Ceux ci ont un rendement déjà intéressants, mais sont actuellement limités par la température des cycles à vapeur. Pour améliorer l'efficacité énergétique de ces procédés, une des solutions est de chauffer un gaz à très hautes températures en entrée d'une turbine à gaz. Le travail présenté dans ce mémoire décrit un procédé de collecte d'énergie solaire concentrée basé sur un lit fluidisé à changement de section. La collecte de l'énergie solaire se fait directement au travers d'une fenêtre transparente en quartz. La conception de notre récepteur solaire est basée sur deux études. La première consiste à tester plusieurs colonnes transparentes à froid de géométries et de dimensions différentes pour optimiser la distribution des particules lors de la fluidisation. Elle nous a permis de choisir les dimensions et la géométrie du récepteur solaire. En parallèle, nous avons réalisé un premier récepteur avec éclairement artificiel par des lampes infrarouges, au laboratoire RAPSODEE de l'Ecole des Mines d'Albi. Il nous a permis de vérifier la faisabilité du procédé et d'avoir les premiers résultats de la fluidisation à chaud. Le récepteur solaire a été ensuite testé au four solaire de 4,6 m du PROMES-CNRS à Odeillo. Durant notre travail nous avons étudié expérimentalement et numériquement les transferts thermiques dans le lit fluidisé et l'influence des divers paramètres physiques sur l'efficacité du récepteur. Un modèle mathématique des transferts radiatifs basé sur la méthode de Monte Carlo en 1 D a été réalisé. Ce modèle permet de déterminer la distribution des densités de flux thermiques dans les différentes couches du lit fluidisé ainsi que les pertes radiatives. Nous concluons sur la pertinence de nos choix dans ce travail et sur les perspectives. Mots clés : rayonnement solaire concentré, lit fluidisé, gaz chaud, récepteur solaire, transfert radiatif, Méthode de Monte Carlo<br>At the moment the traditional fossil energy (oil, coal. . . ) are beginning to run out, causing humanity to seek other sources of energy to meet his needs. Nature holds many sources of inexhaustible and clean energy like solar energy, biomass and wind energy. The availability of solar energy, its free and renewal encourage its collection and use. Solar energy can be collected for various uses as conducting an endothermic chemical reaction or production of electricity. The production of solar electricity is made by photovoltaic processes or by thermodynamic processes. Those have an interesting performance, but are currently limited by temperature steam cycles. One solution is to heat a gas at very high temperatures at the entrance of a gas turbine. The work presented in this report describes a process of collecting concentrated solar energy based on a change section fluidized bed. The collection of solar energy is directly through a transparent quartz window. The design of our solar receiver is based on two studies. The first enable us to cold test several transparent columns with different geometries and dimensions to optimize the distribution of particles during fluidization. This study enable us to choose the dimensions and geometry of the solar receiver. In parallel, we made a first receiver artificial illumination by infrared lamps. We have designed the receiver in RAPSODEE laboratory of the Ecole des Mines d'Albi. It helped us to verify the feasibility of the process and to have the first results of the hot fluidized bed. The solar receiver was then tested in 4. 6 m solar concentrator of PROMES-CNRS Odeillo. During our work we studied experimentally and numerically heat transfer in the fluidized bed and the influence of various physical parameters for the effectiveness of the receiver. A mathematical model of radiative transfer based on the Monte Carlo Method in 1 D was achieved. The model is used to determine the distribution of heat in the different layers of the fluidized bed and the radiative losses. We conclude for the relevance of our choice in this work and the perspectives. Key words : concentrated solar radiation, fluidized bed, hot gas, solar receiver, radiative heat transfer, Monte Carlo Method
APA, Harvard, Vancouver, ISO, and other styles
12

Britto, Richard. "Recherche du Rayonnement Gamma Diffus Galactique Autour de 100 GeV dans l'Expérience à Effet Tcherenkov Atmosphérique CELESTE." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00358634.

Full text
Abstract:
L'étude de l'émission diffuse galactique est un sujet d'intérêt majeur en astronomie gamma au-delà du GeV pour l'étude des rayonnements cosmiques chargés de notre Galaxie. Face au peu de mesures au-dessus de 10 GeV, nous avons recherché la composante gamma diffuse dans les données hors-source (OFF) de CELESTE, premier télescope à effet Tcherenkov atmosphérique à avoir un seuil en énergie en-dessous de 100 GeV. La production et l'étude de simulations Monte-Carlo de gamma ont permis de valider l'accord entre les simulations et les données, et d'estimer la sensibilité de CELESTE aux gamma diffus. Afin de rechercher le rayonnement gamma diffus, essentiellement localisé aux faibles latitudes galactiques, nous avons entrepris une analyse de lots de données OFF, réalisant ainsi une association par paires OFF / OFF. Une première étape a consisté à vérifier l'absence d'effet systématique significatif en comparant paire par paire deux OFF pris à des dates différentes dans des régions de hautes latitudes galactiques où aucun signal gamma diffus n'était décelable, et sélectionnés selon des critères de stabilité de l'acquisition et de l'atmosphère, pour des pointés identiques. La deuxième étape, visant à rechercher un excès d'événements dans le plan galactique, a consisté à associer en paires les OFF de la nébuleuse du Crabe dont l'un des membres est situé à une latitude |l| < 2°, et l'autre à une latitude |l| = 10°. La soustraction OFF-OFF des données après coupures d'analyse sur des variables construites sur des propriétés géométriques et temporelles du front d'onde Tcherenkov, permettait ainsi la discrimination entre les candidats électromagnétiques et hadroniques. La région sondée était donc celle de l'anticentre galactique. Nous avons obtenu 7 paires, soit 108 min de données. Une limite supérieure à 95 % de niveau de confiance a été établie à 100 GeV, correspondant au flux limite intégral phi (E=100 GeV) = 6,6 x 10^-3 m^-2 s^-1 sr^-1.
APA, Harvard, Vancouver, ISO, and other styles
13

Berlendis, Simon. "Recherche de la production exotique de paires de quarks top de même signe au LHC avec le détecteur ATLAS." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAY052/document.

Full text
Abstract:
Le Modèle Standard, qui décrit les interactions entre les particules à l’échelle quantique, est une théorie imparfaite. Il possède plusieurs problèmes théoriques non-résolus et ne permet pas d’expliquer certaines observations astrophysiques comme celles de la matière noire et de l’asymétrie baryonique. Plusieurs théories, dites au-delà du Modèle Standard, ont été proposées afin de résoudre certains de ces problèmes, et une grande partie d’entre elles prévoient l’apparition de nouveaux phénomènes à haute énergie. L’objectif principal de cette thèse est de rechercher ces phénomènes dans les collisions proton-proton produites par le Large Hadron Collider à une énergie de centre de masse de 13 TeV. Une partie des travaux présentés dans cette thèse a en particulier été dédiée à la recherche de processus de production de quarks top de même signe, c’est-à-dire de même charge électrique, qui sont prédits par des modèles de supersymétrie à R-parité violée. Ces processus engendrent des évènements composés de leptons de même charge accompagnés de b-jets, lesquels ont l’avantage d’être faiblement contaminer par le bruit de fond provenant du Modèle Standard.Les travaux présentés dans cette thèse ont essentiellement porté sur deux analyses, chacune recherchant des phénomènes de nouvelle physique de nature différente dans les évènements composés de leptons de même charge dans les données enregistrées par le détecteur ATLAS. Une première analyse a porté sur la recherche de processus supersymétriques sur les données enregistrées en 2015 et en 2016 avec 36.1 fb$^{-1}$ de luminosité intégrée. Des signaux de production de quarks top de même signe ont été implémentés en se basant sur des processus supersymétriques violant la R-parité, et des régions de signal associées à ces processus ont été optimisées. Une deuxième analyse a porté sur la recherche de processus non-supersymétriques, dits exotiques, dans les données enregistrées en 2015 avec 3.2 fb$^{-1}$ de luminosité intégrée. Cette analyse a surtout été motivée par les résultats obtenus à 8 TeV, dans lesquels un modeste excès de nombre d’évènements par rapport aux prédictions du Modèle Standard a été observé dans deux régions de signal. Une partie des études relatives à cette analyse a été dédiée au développement et à la validation des méthodes d’estimation des différentes sources de bruit de fond.Aucune déviation par rapport aux prédictions du Modèle Standard n’a été observée dans chacune des régions de signal considérées dans les deux analyses. L’excès qui avait été observé dans les résultats obtenus à 8 TeV n’est donc pas confirmé. Des limites d’exclusion sur les modèles de nouvelle physique ont de plus été extraites à partir des résultats obtenus, en particulier sur les modèles de supersymétrie à R-parité violée utilisés pour produire les processus de production de quarks top de même signe<br>The Standard Model, which describes the particle interactions at quantum level, is an imperfect theory. It has several theoretical problems and is unable to explain astrophysical observations like the dark matter and the baryonic asymmetry of the universe. Several beyond-standard models have been proposed to solve some of these issues, and predict new-physics phenomena at high energy. The aim of this thesis is to search for these phenomena in proton-proton collisions produced by the Large Hadron Collider at a center-of-mass energy of 13 TeV. Part of the studies presented in this thesis was dedicated to the search for production of same-sign top quarks based on R-parity violating supersymmetric models. These processes lead to a signature of same-sign leptons and b-jets, which have the advantage to be lowly contaminated by the Standard Model background.The studies presented in this thesis focused on two analyses, both searching for new-physics phenomena of different nature in same-sign leptons events in data recorded by the ATLAS detector. A first analysis focused on supersymmetric processes with data recorded in 2015 and in 2016 with 36.1 fb$^{-1}$ of integrated luminosity. Same-sign top quarks signals were implemented using R-parity violating supersymmetric processes, and signal regions associated to these processes were optimized. A second analysis focused on exotic (non-supersymmetric) processes with data recorded in 2015 with 3.2 fb$^{-1}$ of integrated luminosity. This analysis was motivated by a modest excess seen in two signal regions in the 8 TeV results. Several studies were focused on the development and the validation of background estimation methods.No deviations from the Standard Model predictions were observed the signal regions considered in both analyses. The 8 TeV excess is therefore not confirmed with the most recent data. Exclusion limits on new-physics models were extracted, in particular for the R-parity violating supersymmetric models that were used to produce the same-sign top quarks processes
APA, Harvard, Vancouver, ISO, and other styles
14

Fechner, Maximilien Pierre Yves François. "Détermination des performances attendues sur la recherche de l' oscillation neutrino muonique vers neutrino électronique dans l' expérience T2K depuis l' étude des données recueillies dans l' expérience K2K." Paris 6, 2006. http://www.theses.fr/2006PA066029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Oliviero, Guillaume. "Expérience SuperNEMO pour la recherche de la double désintégration bêta sans émission de neutrino : conception et réalisation du système de déclenchement du module démonstrateur." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC236/document.

Full text
Abstract:
L’expérience SuperNEMO est conçue pour la recherche de la double désintégration bêta (ββ) sans émission de neutrinos impliquant un neutrino de Majorana (ν ≡ ν̄) massif. Le module démonstrateur de l’expérience est actuellement en cours d’installation au Laboratoire Souterrain de Modane (LSM). La technique de détection utilisée, dite tracko-calo, permet la mesure en énergie des particules traversant le détecteur ainsi qu’une reconstruction complète de leur cinématique.Cette thèse présente la conception, la simulation et l’implémentation d’un système de déclenchement de l’électronique pour le module démonstrateur de SuperNEMO. Le but de ce système est de maximiser l’efficacité de détection pour des évènements ββ ainsi que pour des évènements dits de bruits de fond issus de la radioactivité naturelle tout en réduisant le taux d’acquisition pour des évènements d’autodéclenchement des détecteurs. Un ensemble d’algorithmes de reconnaissances de traces et d’association calorimètre–trajectographe a été développé et implémenté dans les cartes électroniques après validation par des simulations Monte-Carlo. Les objectifs de performance ont été atteints en prenant en compte les différentes contraintes (physique des détecteurs, électronique, temps réel) maximisant les efficacités de détection pour des évènements d’intérêt physique<br>The SuperNEMO experiment is designed for the neutrinoless double beta decay (ββ) research involving a massive Majorana neutrino (ν ≡ ν̄). The demonstrator module of the experiment is currently being installed at the Laboratoire Souterrain de Modane (LSM). The so-called tracko-calo detection technique allows the energy measurement of the particles passing through the detector and a complete reconstruction of their kinematics.This thesis presents the design, simulation and implementation of the electronics trigger system for the SuperNEMO demonstrator module. The purpose of this system is to maximize the detection efficiency for ββ events as well as for background events due to natural radioactivity while reducing the acquisition rate caused by spurious events. Pattern recognition and calorimeter-tracker association algorithms have been developed and implemented in electronic boards after validation by Monte-Carlo simulations. The performance targets have been reached, taking into account different constraints (physics of the detectors, electronics, real time) with maximized detection efficiency for events of interest
APA, Harvard, Vancouver, ISO, and other styles
16

Amharrak, Hicham. "Développement et optimisation de méthodes de mesures d'échauffements nucléaires et de flux gamma dans les réacteurs expérimentaux : identification, maîtrise, traitement et réduction des incertitudes associées." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4705.

Full text
Abstract:
L'objectif de cette thèse vise à mettre au point et à améliorer les méthodes de mesures d'échauffements nucléaires auprès des maquettes critiques du CEA-Cadarache EOLE et MINERVE, au moyen de détecteurs thermo-luminescents (TLD), de détecteurs à luminescence optiquement stimulée (OSLD – nouvellement mis en œuvre dans le cadre de ce travail de thèse) et d'une chambre d'ionisation. Il s'agit d'identifier, de hiérarchiser, de traiter et enfin de réduire les différentes sources d'incertitudes et de biais systématiques associés à la mesure.Une série d'expériences a été mise en place dans le réacteur MINERVE. Les mesures ont été réalisées dans un environnement en aluminium ou en hafnium à l'aide d'un nouveau protocole : les TLD ont été étalonnés individuellement, la répétabilité de la mesure a été évaluée expérimentalement et les lois de chauffe des TLD ont été optimisées, conduisant à une réduction des incertitudes de mesures. Des mesures de gammas émis de façon différée après arrêt du réacteur MINERVE ont également été réalisées : les résultats obtenus montrent un bon accord des mesures avec les trois types de détecteurs utilisés.L'interprétation de ces mesures nécessite des calculs pour tenir compte des facteurs de correction, liés à l'environnement et au type de détecteurs utilisés. Ainsi, des corrections de la contribution des neutrons à la dose totale intégrée par les détecteurs ont été évaluées à l'aide de deux méthodes de calcul. Ces corrections ont été obtenues sur la base de simulations Monte Carlo couplées neutron-gamma et gamma-électron à l'aide du code MCNP<br>The objective of this thesis is to develop and to improve the nuclear heating measurement methods in MINERVE and EOLE experimental reactors at CEA-Cadarache, using thermo-luminescent detectors (TLD), optically stimulated luminescence detectors (OSLD – newly implemented in the context of this thesis) and an ionization chamber. It is to identify, prioritize, treat and reduce the various sources of uncertainty and systematic bias associated with the measurement.A series of experiments was set up in the MINERVE reactor. The measurements were carried out in an aluminum or hafnium surrounding using a new procedure methodology. The TLD are calibrated individually, the repeatability of the measurement is experimentally evaluated and the laws of TLD heat are optimized. The measurements of the gamma emitted, with a delay (delayed gamma) after shutdown of the MINERVE reactor, were also carried out using TLD and OSLD detectors with the aluminum pillbox as well as by ionization chamber. The results show a good correlation between the measurements recorded by these three detectors.The interpretation of these measurements needs to take account the calculation of cavity correction factors related to the surrounding and the type of detector used. Similarly, the correction due to the neutrons contributions to the total dose integrated by the detectors are evaluated with two calculation methods. These corrections are based on Monte Carlo simulations of neutron-gamma and gamma-electron transport coupled particles using the MCNP
APA, Harvard, Vancouver, ISO, and other styles
17

Weydert, Carole. "Recherche d'un boson de Higgs chargé avec le détecteur ATLAS : de la théorie à l'expérience." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00629349.

Full text
Abstract:
Cette thèse se situe à mi-chemin entre la phénoménologie et la physique de particules expérimentale. Dans la première partie, nous décrivons un calcul de section efficace à order supérieur en développement perturbatif, ainsi que son implementation dans un générateur d'événements Monte Carlo. Nous présentons les corrections au premier order en chromodynamique quantique pour la production de boson de Higgs chargé en association avec un quark top au LHC, en utilisant le formalisme de soustraction de Catani et Seymour. Notre code indépendant nous a permis de valider les résultats donnés par MC@NLO, et nous avons réalisé des études concernant diverses contributions aux erreurs systématiques dues à la simulation d'événements. L'implémention du processus a été réalisée pour le générateur POWHEG. En raison de la quantité de données insuffisante disponible fin 2010 (le détecteur ATLAS a accumulé 35 pb-1 de données de collisions proton-proton), le processus de production de Higgs chargé n'a pas pu être étudié et nous nous sommes tournés vers la caractérisation de bruits de fonds. Dans ce contexte, il s'avère que la production de boson W en association avec un quark top est importante à connaître. Dans la seconde partie de cette thèse, nous mettons en place une analyse spécifique au canal Wt semileptonique, en incluant les effets statistiques et systématiques, pour lesquels nous nous concentrons plus particulièrement sur l'effet dû aux différentes paramétrisations du contenu des protons. Le processus Wt étant inobservable au Tévatron, nous pouvons pour la première fois donner une limite à la setion efficace de production.
APA, Harvard, Vancouver, ISO, and other styles
18

Peron, Arthur. "Contribution à l'amélioration des méthodes d'évaluation de l'échauffement nucléaire dans les réacteurs nucléaires à l'aide du code Monte-Carlo TRIPOLI-4®." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112393/document.

Full text
Abstract:
Les programmes d’irradiations technologiques menés dans les réacteurs expérimentaux sont d’une importance cruciale pour le soutien du parc électronucléaire actuel en termes d’étude et d’anticipation du comportement sous irradiation des combustibles et des matériaux de structures. Ces programmes permettent d’améliorer la sûreté des réacteurs actuels et également d’étudier les matériaux pour les nouveaux concepts de réacteurs.Les conditions d’irradiations des matériaux dans les réacteurs expérimentaux doivent être représentatives de celles des réacteurs de puissance. Un des principaux intérêts des réacteurs d'irradiations technologiques (Material Testing Reactors, MTRs) est de pouvoir y mener des irradiations instrumentées en ajustant les paramètres expérimentaux, en particulier le flux neutronique et la température. La maîtrise du paramètre température d’un dispositif irradié dans un réacteur expérimental nécessite la connaissance de l'échauffement nucléaire (terme source) dû au dépôt d'énergie des photons et des neutrons interagissant dans le dispositif. La bonne évaluation de cet échauffement est une donnée clé pour les études thermiques de dimensionnement et de sûreté du dispositif.L'objectif de cette thèse est d'améliorer les méthodes d’évaluation de l'échauffement nucléaire en réacteur. Ce travail consiste en l’élaboration d'un schéma de calcul complet innovant, couplé neutron-photon (permettant d’obtenir la contribution des neutrons, des gamma prompts et des gamma de décroissance), fondé principalement sur le code de transport Monte-Carlo TRIPOLI-4 (à 3-dimensions et à énergie continue). Une validation expérimentale du schéma a été effectuée en s’appuyant sur les mesures de calorimétrie réalisées dans le réacteur OSIRIS (CEA Saclay). Des études de sensibilité ont également été menées pour établir l’impact de différents paramètres sur les calculs d’échauffement nucléaire, dont les données nucléaires. Cela a permis de définir le schéma de calcul définitif pour reproduire au plus près la réalité des irradiations technologiques. Le travail de thèse débouche sur un outil opérationnel et prédictif pour l'estimation de l'échauffement nucléaire répondant aux besoins de l’expérimentation en réacteur de recherche et qui peut être étendu plus largement dans des réacteurs de puissance<br>Technological irradiation programs carried out in experimental reactors are crucial for the support of the current nuclear fleet in terms of study and anticipation of the behavior under irradiation of fuels and structural materials. These programs make it possible to improve the safety of the current reactors and also to study materials for the new concepts of reactors.Irradiation conditions of materials in experimental reactors must be representative of those of nuclear power plants (NPPs). One of the main advantages of material testing reactors (MTRs) is to be able to carry out instrumented irradiations by adjusting experimental parameters, in particular the neutron flux and the temperature. The control of the parameter temperature of a device irradiated in an experimental reactor requires the knowledge of the nuclear heating (source term) due to the deposition of energy of the photons and the neutrons interacting in the device. A relevant evaluation of this heating is a key data for the thermal studies of design and safety of devices. The objective of this thesis is to improve the methods of the evaluation of nuclear heating in reactors. This work consists of the development of an innovating and complete coupled neutron-photon calculation scheme (allowing to obtain the contribution of neutrons, prompt gamma and decay gamma), mainly based on the TRIPOLI-4 Monte Carlo transport code (with 3-dimensions and continuous energy). An experimental validation of the calculation scheme has been performed, based on calorimetry measurements carried out in the OSIRIS reactor (CEA Saclay). Sensitivity studies have been undertaken to establish the impact of various parameters on nuclear heating calculations (in particular nuclear data) and to fix the final calculation scheme to be closer to the technological irradiation aspects. The thesis work leads to an operational and predictive tool for the nuclear heating estimation, meeting the experimentation needs of research reactors and can be extended more generally to NPPs
APA, Harvard, Vancouver, ISO, and other styles
19

Wang, Weijia. "Multi-objective sequential decision making." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01057079.

Full text
Abstract:
This thesis is concerned with multi-objective sequential decision making (MOSDM). The motivation is twofold. On the one hand, many decision problems in the domains of e.g., robotics, scheduling or games, involve the optimization of sequences of decisions. On the other hand, many real-world applications are most naturally formulated in terms of multi-objective optimization (MOO). The proposed approach extends the well-known Monte-Carlo tree search (MCTS) framework to the MOO setting, with the goal of discovering several optimal sequences of decisions through growing a single search tree. The main challenge is to propose a new reward, able to guide the exploration of the tree although the MOO setting does not enforce a total order among solutions. The main contribution of the thesis is to propose and experimentally study two such rewards, inspired from the MOO literature and assessing a solution with respect to the archive of previous solutions (Pareto archive): the hypervolume indicator and the Pareto dominance reward. The study shows the complementarity of these two criteria. The hypervolume indicator suffers from its known computational complexity; however the proposed extension thereof provides fine-grained information about the quality of solutions with respect to the current archive. Quite the contrary, the Pareto-dominance reward is linear but it provides increasingly rare information. Proofs of principle of the approach are given on artificial problems and challenges, and confirm the merits of the approach. In particular, MOMCTS is able to discover policies lying in non-convex regions of the Pareto front, contrasting with the state of the art: existing Multi-Objective Reinforcement Learning algorithms are based on linear scalarization and thus fail to sample such non-convex regions. Finally MOMCTS honorably competes with the state of the art on the 2013 MOPTSP competition.
APA, Harvard, Vancouver, ISO, and other styles
20

Tarchalski, Mikolaj. "Nuclear heating measurements in the Maria reactor and implementation of neutron and photon calculation scheme." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4101.

Full text
Abstract:
Les travaux réalisés durant cette thèse rentrent dans cette problématique. Ils concernent d’une part le développement d’un schéma de calculs et d’évaluation des échauffements nucléaires générés dans le réacteur MARIA en utilisant les codes français de transport neutronique TRIPOLI-4 © et APOLLO-2. Les travaux dans ce volet ont concerné principalement les calculs des échauffements photoniques induits par les rayonnements gammas essentiellement. D’autre part des travaux expérimentaux ont été conduits durant cette thèse. Ils ont concerné la mesure des échauffements nucléaires dans des emplacements spécifiques du réacteur MARIA. Cela a permis une première validation des schémas de calcul adoptés. Des comparaisons C/E ont été effectuées. Elles sont présentées et discutées dans cette thèse. Cela a permis d’émettre des recommandations quant aux techniques de mesure des échauffements nucléaires dans le réacteur MARIA et les moyens de modélisation qui peuvent être associés. Les comparaisons calculs-expérience font l’objet du cinquième. Les écarts relevés entre les résultats des modélisations et les mesures des échauffements nucléaires pour différentes configurations de mesures (au moyen de GT et de calorimètre mono cellule KAROLINA) permettent de dégager grâce à ces premiers travaux de thèse des recommandations pertinentes pour les travaux futurs<br>This thesis work presents a calculation scheme which enables evaluation of heat generation from nuclear reactions in the MARIA nuclear reactor by use French computational codes TRIPOLI-4 © (TRIPOLI-4 is a registered trademark of CEA) and Apollo-2. Particular attention was devoted to the heat induced by gamma radiation. The thesis also presents measurements of nuclear heating in selected locations inside MARIA MTR reactor. This allows reaching first steps of validation and qualification of computer calculations. Research and analysis presented in the thesis allow one to compare the results obtained by using proposed calculation scheme with the experimental measurement methods. Finally, further works and perspectives were proposed on the development of the calculations and experimental measurements of nuclear heating in nuclear reactors.Qualifying the calculations was possible by performing especially dedicated 7-day core measurement campaigns. Nuclear heating measurements were performed with gamma thermometers and specially designed KAROLINA calorimeter. All measurement devices used were mounted in a dedicated probe, designed and built for this purpose, which allowed for the adjustment of instruments position inside the MARIA core. The main scientific hypothesis of this work is that currently available Monte Carlo simulations of neutron and gamma transport can be used to correct and accurate calculations of prompt nuclear heating in nuclear reactor, whereas delayed component of nuclear heating can be determined experimentally. For this purpose new calculation scheme and improvements in nuclear heating measurements were implemented
APA, Harvard, Vancouver, ISO, and other styles
21

Blanchet, Adrien. "Recherche du neutrino stérile auprès du réacteur de l’ILL : expérience Stereo." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS269/document.

Full text
Abstract:
La thèse de doctorat porte sur la physique des neutrinos de réacteurs. L'étude de plus en plus précise des spectres d'antineutrinos des réacteurs a mis à jour une déviation entre la prédiction et les mesures qui pourrait indiquer l'existence d'un nouveau neutrino, non couplé avec l'interaction faible (un neutrino stérile) et de masse autour de 1 ₑV/c². L'expérience STEREO vise à tester l'hypothèse du neutrino stérile auprès du réacteur ILL de Grenoble. Le principe de STEREO repose sur 6 cellules de détection identiques disposées entre 9 et 11.5 m de distance du cœur du réacteur de recherche de l'ILL. Le détecteur a commencé la prise de données en novembre 2016, et les premiers résultats ont été publiés dès 2018. Le travail effectué pendant la thèse a consisté dans un premier temps à caractériser la réponse en énergie du détecteur. Pendant la première phase de prise de données, des défaillances matérielles se sont manifestées entrainant le découplage optique d'une cellule et une augmentation progressive des fuites de lumière entre cellules. Ces deux aspects ont contraint l'analyse de données à développer un algorithme de reconstruction des dépôts d'énergie qui corrige les fuites lumières au premier ordre. Un important travail sur la mesure des paramètres de cette méthode a été entrepris afin d'assurer que l'échelle en énergie soit bien reproduite dans la simulation GEANT4. L'estimation des incertitudes systématiques sur l'échelle en énergie a été effectuée en se servant des bruits de fond cosmogéniques. Le second aspect majeur abordé pendant la thèse est l'analyse statistique et la génération des contours d'exclusion de l'hypothèse du neutrino stérile. La déduction statistique a été conduite en s'inspirant de la méthode de Feldman et Cousins (1999) sur la génération d'intervalles de confiance fréquentistes. Un formalise en X² a spécialement été développé pour mener une analyse d'oscillations indépendante des prédictions de flux et de forme des spectres antineutrinos. Les erreurs statistiques et systématiques ont été propagées à l'aide de matrices de covariance et les lois de X² ont été calculées en générant des pseudo-expériences. L'ensemble des travaux menés pendant cette thèse de doctorat a contribué à la publication de trois papiers présentant les résultats de l'expérience STEREO<br>The doctoral thesis focuses on the physics of reactor neutrinos. The increasingly precise study of antineutrinos spectra from reactors has revealed a deviation between the prediction and the measurements, which could indicate the existence of a new neutrino. This new neutrino state would not couple with the weak interaction (a sterile neutrino) and its mass would be around 1 ₑV/c². The STEREO experiment aims at testing the sterile neutrino hypothesis at the ILL reactor in Grenoble-France. The principle of the STEREO experiment is based on 6 identical detector cells aligned between 9 and 11.5 m distance from the core of the ILL research reactor. The detector started taking data in November 2016, and the first results were published in 2018. The work carried out during the thesis initially consisted in characterizing the detector's energy response. During the first phase of data taking, hardware failures occurred leading to the optical decoupling of a cell and a gradual increase in light cross-talk between cells. These two aspects have compelled data analysis to develop a dedicated energy deposit reconstruction algorithm that corrects first-order light leaks using a matrix formalism. Significant work on the measurement of the parameters of this method was undertaken to ensure that the energy scale was well reproduced in the GEANT4 simulation. The estimation of systematic uncertainties on the energy scale was performed using cosmogenic background events. The second major aspect addressed during the thesis is the statistical analysis and generation of exclusion contours of the sterile neutrino hypothesis. The statistical inference was built using the Feldman and Cousins (1999) method by generating frequentist confidence intervals. A formalization in X² has been specially developed to conduct the oscillation analysis independently of any flux or shape prediction of the antineutrino spectra. Statistical and systematic errors were propagated using covariance matrices and X² laws were constructed by generating pseudo-experiments. All the work carried out during this doctoral thesis contributed to the publication of three papers presenting the results of the STEREO experiment
APA, Harvard, Vancouver, ISO, and other styles
22

Guillemin, Perrine. "Recherche de la haute conversion en cycle thorium dans les réacteurs CANDU et REP : Développement des méthodes de simulation associées et étude de scénarios symbiotiques." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0176.

Full text
Abstract:
Ce travail explore la compétitivité des réacteurs actuels (CANDU et REP) en cycle thorium afin de pallier au problème d'utilisation des ressources naturelles en uranium et aux problèmes de disponibilité et de coût des réacteurs de quatrième génération dans le cadre d'un nucléaire durable. Ce travail s'est focalisé sur l'analyse neutronique de deux types de gestion du combustible thorium : la production d'233U à partir de combustible Th/Pu et la conversion d'233U dans ces réacteurs. En particulier, la régénération en CANDU Th/U multirecyclé a été établie. En amont de ces études, les outils et les données utilisés ont fait l'objet d'une validation par une comparaison entre codes (stochastique et déterministe). Des scénarios symbiotiques, combinant réacteurs et combustibles uranium et thorium, ont été évalués et comparés. Ce travail a abouti à la quantification des gains sur la consommation des ressources, avec des modifications technologiques mineures des réacteurs. Des modifications plus poussées pour obtenir la régénération en REP ont été proposées et étudiées à titre préliminaire<br>In the frame of a sustainable nuclear energy, this study assesses Thorium-fueled CANDU and PWR competitiveness to reduce access difficulties to cheap uranium resources and Gen. IV cost and availability problems. It focuses on neutronic analysis of two thorium fuel management options : 233U production from Th/Pu fuels and 233U conversion in these reactors. In particular, breeding in multirecycled Th/U CANDU has been established. Before this work, simulation methods and nuclear data have been validated by cross-checking two different types of codes (probabilistic and deterministic). Symbiotic scenarios, with various reactor and fuel combinations have been evaluated and compared. Resources savings have been quantified through core slight modifications. Deeper modifications towards breeding in PWR have been proposed and preliminarily studied
APA, Harvard, Vancouver, ISO, and other styles
23

Ndiaye, Moulaye A. A. "Évaluation de performance d’architecture de contrôle-commande en réseau dans un contexte incertain d’avant-vente." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0027/document.

Full text
Abstract:
Ce mémoire, réalisé dans le cadre d’une thèse sous convention CIFRE avec la société Schneider-Electric et l’Université de Lorraine à travers le laboratoire du CRAN, porte sur l’évaluation des performances temporelles des architectures de contrôle-commande distribuées sur un réseau de communication. Le besoin industriel s’exprime sous la forme d’un outil d’aide au dimensionnement des architectures en phase d’avant-vente caractérisée par une connaissance partielle de ces dernières. Le problème scientifique sous-jacent est relatif à la génération automatique des modèles servant de support à l’évaluation. En effet, l’évaluation des performances doit être réalisée pour un ensemble important d’architectures, dans un temps court, difficilement compatible avec une construction manuelle des modèles. Notre contribution porte sur la définition formelle, à l’aide de réseaux de Petri colorés et temporisés, d’un modèle « constructeur » d’architectures embarquant des mécanismes de configuration, d’instanciation et de paramétrage. Plusieurs algorithmes sont proposés pour, d’une part, construire automatiquement le modèle d’une architecture donnée, à partir d’une description formelle de sa topologie et d’une librairie de modèles d’équipements de contrôle-commande, et, d’autre part, pour générer les observateurs requis à partir d’une description formelle des performances à évaluer. Ces différents algorithmes ont été implantés dans un outil interfacé, d’une part avec l’outil Schneider de description des architectures, et, d’autre part avec le simulateur de l’outil CPN Tools qui fournit une estimation des performances via des simulations de Monte-Carlo. L’intérêt de cette approche a été illustrée sur la base de quelques architectures types fournies par la société Schneider-Electric<br>This PhD dissertation, supported by CIFRE convention between the company Schneider-Electric and the University of Lorraine through the CRAN laboratory, deals with the assessment of temporal performances for a networked distributed control system. The industrial need was the development of a quotation and sizing tool of industrial control architecture during pre-sales stage. This stage is characterized by limited information about the process and the customers’ needs. The underlying scientific problematic was the ability to generate automatically models serving as support for the evaluation. In fact, performance assessment is realized for a wide range of architecture during a small amount of time, which is not compliant with a manual definition of the models. Our contribution is mainly based on a formal definition of a “builder” model with Colored and Timed Petri Nets which embeds mechanisms for configuration, instantiation and parameters setting of the architecture models. Several algorithms have been proposed for firstly build automatically the architecture Petri Nets model from a formal description of the topology and from a component model library and, secondly, for generating performance observers. Theses algorithms have been implemented on a tool gathering a user interface developed by Schneider –Electric and the Petri Nets simulator called CPN Tools which provides the performance assessment through Monte-Carlo simulation. The added value of this approach has been illustrated through case studies provided by Schneider-Electric
APA, Harvard, Vancouver, ISO, and other styles
24

Paumard, Marie-Morgane. "Résolution automatique de puzzles par apprentissage profond." Thesis, CY Cergy Paris Université, 2020. http://www.theses.fr/2020CYUN1067.

Full text
Abstract:
L’objectif de cette thèse est de développer des méthodes sémantiques de réassemblage dans le cadre compliqué des collections patrimoniales, où certains blocs sont érodés ou manquants.Le remontage de vestiges archéologiques est une tâche importante pour les sciences du patrimoine : il permet d’améliorer la compréhension et la conservation des vestiges et artefacts anciens. Certains ensembles de fragments ne peuvent être réassemblés grâce aux techniques utilisant les informations de contour et les continuités visuelles. Il est alors nécessaire d’extraire les informations sémantiques des fragments et de les interpréter. Ces tâches peuvent être accomplies automatiquement grâce aux techniques d’apprentissage profond couplées à un solveur, c’est-à-dire un algorithme de prise de décision sous contraintes.Cette thèse propose deux méthodes de réassemblage sémantique pour fragments 2D avec érosion, ainsi qu’un jeu de données et des métriques d’évaluation.La première méthode, Deepzzle, propose un réseau de neurones auquel succède un solveur. Le réseau de neurones est composé de deux réseaux convolutionnels siamois entraînés à prédire la position relative de deux fragments : il s'agit d'une classification à 9 classes. Le solveur utilise l’algorithme de Dijkstra pour maximiser la probabilité jointe. Deepzzle peut résoudre le cas de fragments manquants et surnuméraires, est capable de traiter une quinzaine de fragments par puzzle, et présente des performances supérieures à l’état de l’art de 25%.La deuxième méthode, Alphazzle, s’inspire d’AlphaZero et de recherche arborescente Monte Carlo (MCTS) à un joueur. Il s’agit d’une méthode itérative d’apprentissage profond par renforcement : à chaque étape, on place un fragment sur le réassemblage en cours. Deux réseaux de neurones guident le MCTS : un prédicteur d’action, qui utilise le fragment et le réassemblage en cours pour proposer une stratégie, et un évaluateur, qui est entraîné à prédire la qualité du résultat futur à partir du réassemblage en cours. Alphazzle prend en compte les relations entre tous les fragments et s’adapte à des puzzles de taille supérieure à ceux résolus par Deepzzle. Par ailleurs, Alphazzle se place dans le cadre patrimonial : en fin de réassemblage, le MCTS n’accède pas à la récompense, contrairement à AlphaZero. En effet, la récompense, qui indique si un puzzle est bien résolu ou non, ne peut être qu’estimée par l’algorithme, car seul un conservateur peut être certain de la qualité d’un réassemblage<br>The objective of this thesis is to develop semantic methods of reassembly in the complicated framework of heritage collections, where some blocks are eroded or missing.The reassembly of archaeological remains is an important task for heritage sciences: it allows to improve the understanding and conservation of ancient vestiges and artifacts. However, some sets of fragments cannot be reassembled with techniques using contour information or visual continuities. It is then necessary to extract semantic information from the fragments and to interpret them. These tasks can be performed automatically thanks to deep learning techniques coupled with a solver, i.e., a constrained decision making algorithm.This thesis proposes two semantic reassembly methods for 2D fragments with erosion and a new dataset and evaluation metrics.The first method, Deepzzle, proposes a neural network followed by a solver. The neural network is composed of two Siamese convolutional networks trained to predict the relative position of two fragments: it is a 9-class classification. The solver uses Dijkstra's algorithm to maximize the joint probability. Deepzzle can address the case of missing and supernumerary fragments, is capable of processing about 15 fragments per puzzle, and has a performance that is 25% better than the state of the art.The second method, Alphazzle, is based on AlphaZero and single-player Monte Carlo Tree Search (MCTS). It is an iterative method that uses deep reinforcement learning: at each step, a fragment is placed on the current reassembly. Two neural networks guide MCTS: an action predictor, which uses the fragment and the current reassembly to propose a strategy, and an evaluator, which is trained to predict the quality of the future result from the current reassembly. Alphazzle takes into account the relationships between all fragments and adapts to puzzles larger than those solved by Deepzzle. Moreover, Alphazzle is compatible with constraints imposed by a heritage framework: at the end of reassembly, MCTS does not access the reward, unlike AlphaZero. Indeed, the reward, which indicates if a puzzle is well solved or not, can only be estimated by the algorithm, because only a conservator can be sure of the quality of a reassembly
APA, Harvard, Vancouver, ISO, and other styles
25

Cassagnabère, Christophe. "Etude et implémentation d'algorithmes d'illumination globale stochastiques accélérés par le matériel." Littoral, 2007. http://www.theses.fr/2007DUNK0167.

Full text
Abstract:
Les méthodes stochastiques de Monte-Carlo représentent une solution élégante permettant de calculer des effets d'illumination globale de manière plus réaliste que d'autres algorithmes de rendus. Toutefois, le principal inconvénient de ces méthodes réside dans les temps de calcul conséquents qu'ils immpliquent la plupart du temps. Que ce soit par l'utilisation de structures de données hiérarchiques ou par la distribution des calculs sur un cluster d'ordinateurs personnels en passant par l'implémentation sur une architecture de type super-ordinateur, nombre de méthodes existent en vues d'améliorer les performances des algorithmes de Monte-Carlo en terme de temps de rendu. Nous apportons une contribution à ce domaine très actif en abordant la question sous plusieurs angles. D'une part nous proposons une étude approfondie d'un serveur de calcul commercial dédié au calcul de lancer de rayons, et nous proposons une méthode afin d'étendre le champ d'appliqations de ce serveur aux techniques de Monte-Carlo pour le rendu. D'autre part, nous présentons une méthode de classification des rayons au sein et une reconstruction des algorithmes de Monte-Carlo classiques, permettant ainsi une utilisation efficace des cartes graphiques programmables récentes pour l'accélération du calcul d'intersections intervenants dans le processus. Enfin nous proposons l'architecture logicielle modulable IGLOO, conçue dans le cadre de cette thèse afin de disposer au sein du Laboratoire d'Informatique du Littoral d'une plate-forme de développement et de comparaison des techniques de Monte-Carlo commune servant de base à de nombreux projets en cours dans le cadre d'autres travaux<br>Monte-Carlo methods are elegant and efficient solutions for computing realistic global illumination effects far better than most other algorithms. However the main drawback of these methods appears in the important rendering times involved by such techniques. By using adapted hierarchical data structures, distributing the main part of computations on a large personal computer cluster or even designing a specific dedicated software for a specific supercomputer architecture, many solutions exist, trying to improve Monte-Carlo algorithms performances from a rendering time point of view. In our work we contribute to this particularly active research topic and we approach it in several and complementary ways. First of all we propose a near complete study of ray-tracing dedicated server, and we propose to extend ots capabilities to the use of Monte-Carlo methods for rendering. Then, we present a specific method of our own in order to classify rays and an adapted rebuild of classical Monte-Carlo algorithms, so we can efficiently use modern programmable graphics cards to accelerate intersections tests involved in the rendering process. Last but not least, we present the IGLOO modular software architecture. It has been designed and implemented during this thesis in order to permit the whole LIL Laboratory to benefit from a commune development and benchmark platform for Monte-Carlo methods. This architecture is at the basis of many other thesis works actually in progress
APA, Harvard, Vancouver, ISO, and other styles
26

Sanglard, Véronique. "Recherche de la matière noire non-baryonique à l'aide de détecteurs cryogéniques à double composante ionisation et chaleur : Analyse et Interprétation des données de l'expérience EDELWEISS-I." Phd thesis, Université Claude Bernard - Lyon I, 2005. http://tel.archives-ouvertes.fr/tel-00178567.

Full text
Abstract:
L'expérience EDELWEISS recherche une des principales composantes de la matière noire, sous la forme de particules appelées WIMPs (Weakly Interactive Massive Particles). Cette particule, dont la supersymétrie donne un candidat théorique naturel, le neutralino, pourrait constituer une grande fraction de la masse de l'Univers. Les WIMPs sont supposés être présents sous la forme d'un halo sphérique entourant les galaxies.La méthode de la détection directe des WIMPs présents dans le halo de notre galaxie repose sur la mise en évidence de leur interaction avec un noyau cible. L'expérience EDELWEISS utilise cette technique avec des détecteurs cryogéniques à double composante. La détection d'une particule se fait par la mesure simultanée des charges et des phonons créés lors de son interaction avec un noyau. Cette double détection permet de discriminer les reculs électroniques dus en majorité à des gammas, des reculs nucléaires dus à des neutrons ou des WIMPs. Ce travail de thèse effectué dans le cadre de la collaboration EDELWEISS présente l'analyse des données de la première phase de l'expérience. Nous détaillerons en particulier les résultats obtenus durant la dernière campagne de données qui a vu fonctionner simultanément trois détecteurs de 320 grammes.Nous présenterons une comparaison entre une simulation et des données expérimentales d'un étalonnage de la réponse aux reculs nucléaires à l'aide d'une source émettrice de neutrons. La limite supérieure sur le taux d'événements WIMP est déterminée avec une méthode tenant compte de la forme du signal attendu sans toutefois faire d'hypothèse quant à la présence ou la forme d'un éventuel bruit de fond. Ceci nous a permis de déduire une limite supérieure sur la section efficace d'interaction d'un WIMP avec un nucléon en fonction de la masse du WIMP.
APA, Harvard, Vancouver, ISO, and other styles
27

Huber, Arnaud. "Recherche de la nature du neutrino avec le détecteur SuperNEMO : simulations optiques pour l'optimisation du calorimètre et performances attendues pour le 82Se." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0682/document.

Full text
Abstract:
Le démonstrateur de SuperNEMO est un détecteur de nouvelle génération pour la recherche de la décroissance double bêta sans émission de neutrinos. Comme son prédécesseur NEMO3, la technique expérimentale utilisée associe un trajectographe et un calorimètre afin de pouvoir identifier les électrons des décroissances double bêta tout en permettant la différenciation des différentes composantes du bruit de fond. Le démonstrateur est en cours d’installation au Laboratoire Souterrain de Modane et commencera à prendre des données à la fin de l’année 2017 afin d’atteindre une sensibilité supérieure à 1026 ans sur la demi-vie de la décroissance ββ0ν du 82Se dans la version finale du détecteur (100 kg d’isotopes pour une exposition totale de 5 ans).Ce travail de thèse a consisté à étudier la réponse en énergie et en temps des modules optiques du calorimètre (association d'un scintillateur plastique et d'un photomultiplicateur). Une simulation optique basée sur le logiciel GEANT4 a été développée afin de reproduire l'ensemble des phénomènes optiques ayant lieu au sein du scintillateur et du photomultiplicateur : scintillation, atténuation de Birks, émission Cerenkov, propagation et collection des photons. Ces travaux ont abouti à la mise au point de termes correctifs de hautes précisions sur l’énergie afin que le Monte Carlo de SuperNEMO soit au plus proche des données. Ces corrections ont alors été appliquées dans le cas du démonstrateur afin d’étudier l'impact sur la sensibilité au processus ββ0ν du 82Se. Ces simulations optiques ont également été étendues jusqu’à la modélisation de la forme temporelle des signaux du calorimètre<br>The SuperNEMO demonstrator is a next generation experimental device, looking for neutrinoless double beta decay. Like its predecessor NEMO3, the experimental technique employed is based on a combination of a tracker and a calorimeter to identify the electrons from the double beta decay process while allowing the differentiation and identification of the different background components. The SuperNEMO’s demonstrator is currently being installed at the Modane Underground Laboratory and will begin to register data by the end of 2017. The aim is to reach a sensivity greater than 1026 years on the half-life of the 82Se ββ0ν process in the final version of the detector (100 kg of isotopes for a 5 years’ total exposure).This thesis contribution to the SuperNEMO, consisted in studying the energy and time response of the calorimeter optical modules (association of a plastic scintillator and a photomultiplier). To do so, an optical simulation based on the GEANT4 software was developed, which enabled to reproduce and simulate all the optical phenomena inside a scintillator and a photomultiplier: scintillation, Birks attenuation, Cerenkov emission, propagation and photon collection. The outcome and result of this thesis has been to develop high-precision corrective factors on the energy linked, so that the Monte-Carlo’s SuperNEMO is closest to the real data experimental records. These corrections were applied to the demonstrator simulation in order to study the impact on the ββ0ν sensitivity. These optical simulations have also been extended to the modeling of the temporal shape of the calorimeter signals
APA, Harvard, Vancouver, ISO, and other styles
28

Souihli, Asma. "Interrogation des bases de données XML probabilistes." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0046/document.

Full text
Abstract:
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques<br>Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
APA, Harvard, Vancouver, ISO, and other styles
29

Mathonat, Romain. "Rule discovery in labeled sequential data : Application to game analytics." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI080.

Full text
Abstract:
Exploiter des jeux de données labelisés est très utile, non seulement pour entrainer des modèles et mettre en place des procédures d'analyses prédictives, mais aussi pour améliorer la compréhension d'un domaine. La découverte de sous-groupes a été l'objet de recherches depuis deux décennies. Elle consiste en la découverte de règles couvrants des ensembles d'objets ayant des propriétés intéressantes, qui caractérisent une classe cible donnée. Bien que de nombreux algorithmes de découverte de sous-groupes aient été proposés à la fois dans le cas des données transactionnelles et numériques, la découverte de règles dans des données séquentielles labelisées a été bien moins étudiée. Dans ce contexte, les stratégies d'exploration exhaustives ne sont pas applicables à des cas d'application rééls, nous devons donc nous concentrer sur des approches heuristiques. Dans cette thèse, nous proposons d'appliquer des modèles de bandit manchot ainsi que la recherche arborescente de Monte Carlo à l'exploration de l'espace de recherche des règles possibles, en utilisant un compromis exploration-exploitation, sur différents types de données tels que les sequences d'ensembles d'éléments, ou les séries temporelles. Pour un budget temps donné, ces approches trouvent un ensemble des top-k règles decouvertes, vis-à-vis de la mesure de qualité choisie. De plus, elles ne nécessitent qu'une configuration légère, et sont indépendantes de la mesure de qualité utilisée. A notre connaissance, il s'agit de la première application de la recherche arborescente de Monte Carlo au cas de la fouille de données séquentielles labelisées. Nous avons conduit des études appronfondies sur différents jeux de données pour illustrer leurs plus-values, et discuté leur résultats quantitatifs et qualitatifs. Afin de valider le bon fonctionnement d'un de nos algorithmes, nous proposons un cas d'utilisation d'analyse de jeux vidéos, plus précisémment de matchs de Rocket League. La decouverte de règles intéressantes dans les séquences d'actions effectuées par les joueurs et leur exploitation dans un modèle de classification supervisée montre l'efficacité et la pertinence de notre approche dans le contexte difficile et réaliste des données séquentielles de hautes dimensions. Elle permet la découverte automatique de techniques de jeu, et peut être utilisée afin de créer de nouveaux modes de jeu, d'améliorer le système de classement, d'assister les commentateurs de "e-sport", ou de mieux analyser l'équipe adverse en amont, par exemple<br>It is extremely useful to exploit labeled datasets not only to learn models and perform predictive analytics but also to improve our understanding of a domain and its available targeted classes. The subgroup discovery task has been considered for more than two decades. It concerns the discovery of rules covering sets of objects having interesting properties, e.g., they characterize a given target class. Though many subgroup discovery algorithms have been proposed for both transactional and numerical data, discovering rules within labeled sequential data has been much less studied. In that context, exhaustive exploration strategies can not be used for real-life applications and we have to look for heuristic approaches. In this thesis, we propose to apply bandit models and Monte Carlo Tree Search to explore the search space of possible rules using an exploration-exploitation trade-off, on different data types such as sequences of itemset or time series. For a given budget, they find a collection of top-k best rules in the search space w.r.t chosen quality measure. They require a light configuration and are independent from the quality measure used for pattern scoring. To the best of our knowledge, this is the first time that the Monte Carlo Tree Search framework has been exploited in a sequential data mining setting. We have conducted thorough and comprehensive evaluations of our algorithms on several datasets to illustrate their added-value, and we discuss their qualitative and quantitative results. To assess the added-value of one or our algorithms, we propose a use case of game analytics, more precisely Rocket League match analysis. Discovering interesting rules in sequences of actions performed by players and using them in a supervised classification model shows the efficiency and the relevance of our approach in the difficult and realistic context of high dimensional data. It supports the automatic discovery of skills and it can be used to create new game modes, to improve the ranking system, to help e-sport commentators, or to better analyse opponent teams, for example
APA, Harvard, Vancouver, ISO, and other styles
30

Berthon, Julie. "Nouvelle approche de la fiabilité opérationnelle." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13657/document.

Full text
Abstract:
La thèse s'est effectuée dans le cadre d'une convention CIFRE entre l'Université Bordeaux I et l'entreprise Thales Avionics. Elle constitue une analyse originale de la fiabilité de matériels complexes, dans une perspective de maîtrise et d'amélioration de la fiabilité. La thèse comporte deux parties disjointes qui trouvent leur justification dans les problématiques rencontrées par l'industriel : - La première partie porte sur l'analyse des agrégats d'évènements indésirables (séries d'accidents, séries noires,...). Elle fait appel aux statistiques de balayage pour évaluer la probabilité d'occurrence d'un agrégat d'accidents. Une approche par simulation de Monte Carlo, puis un Réseau de Petri supportée par simulation de Monte Carlo, sont proposés. Plusieurs approches markoviennes sont ensuite développées. - La seconde partie porte sur l'analyse du retour d'expérience dans le cas où les informations disponibles sont uniquement les nombres de produits livrés et de défaillances constatées par unité de temps. Une méthodologie innovante, permettant d'obtenir la loi de fiabilité d'un matériel en fonction du flux de production et du flux de pannes observés, est exposée<br>The thesis went within the scope of an agreement between the University Bordeaux I and the Thales Avionics company. It constitutes an original analysis of the reliability of complex materials equipments, with the prospect of control and improvement. The thesis consists of two separate parts connected to the problems met by the manufacturer: - The first part deals with the analysis of "clusters" of undesirable events (chain of disasters, series of failures,...). It appeals to the scan statistics in order to estimate the probability of occurrence of a cluster of events. A Monte Carlo simulation implemented in a dedicated algorithm, then a Monte Carlo simulation supported by a Petri net model, are proposed. Several markovian approaches are then developed. - The second part deals with the analysis of feedback in a non common context when the only information available is the number of equipments which are delivered during each period and the number of those which are removed during each period. An innovative approach, allowing to obtain the intrinsic failure rate of the materials under study according to the production flow and the removal flow, is explained
APA, Harvard, Vancouver, ISO, and other styles
31

Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.

Full text
Abstract:
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures<br>The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
APA, Harvard, Vancouver, ISO, and other styles
32

Sab, Karam. "Sur quelques méthodes en mécanique aléatoire." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00519684.

Full text
Abstract:
Cette thèse contient quatre contributions indépendantes a la mécanique aléatoire: 1) une contribution aux suites à discrépance faible afin d'accélérer la convergence des algorithmes de type Monte-Carlo ; 2) l'homogénéisation des matériaux élastiques à microstructure aléatoire : on définit rigoureusement les tenseurs élastiques macroscopiques, on donne une méthode de simulation pour les calculer, enfin cette méthode est mise en oeuvre sur un matériau fictif ; 3) la fatigue à grand nombre de cycles des métaux polycristallins : on établit un nouveau critère d'endurance pour tous les chargements périodiques ; ce critère est susceptible de modéliser l'aspect aléatoire de la rupture ; 4) l'analyse de la simulation en calcul a 1 rupture probabiliste des structures discrètes : on montre notamment que l'approche par les vitesses est adaptée quand on a à effectuer une simulation et que l'algorithme du simplexe peut être utilisé.
APA, Harvard, Vancouver, ISO, and other styles
33

Capponi, Sylvain. "Habilitation à Diriger des Recherches." Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2005. http://tel.archives-ouvertes.fr/tel-00011628.

Full text
Abstract:
La caractéristique commune des systèmes fortement corrélés est l'existence d'une compétition entre différentes phases de la matière à basse énergie. Nous proposons d'aborder cette problématique à l'aide d'une technique de renormalisation dans l'espace réel qui permet de construire un modèle effectif simplifié. En particulier, nous appliquons cette méthode afin de comprendre l'origine des modulations de charge observées dans les supraconducteurs à haute température critique. <br />Une autre partie de mon travail concerne les extensions possibles de la méthode de Monte-Carlo quantique pour des modèles fermioniques spécifiques qui ne présentent pas de problème de signe.
APA, Harvard, Vancouver, ISO, and other styles
34

Tran, Viet Anh. "Le progiciel PoweR : un outil de recherche reproductible pour faciliter les calculs de puissance de certains tests d'hypothèses au moyen de simulations de Monte Carlo." Thèse, 2013. http://hdl.handle.net/1866/9922.

Full text
Abstract:
Notre progiciel PoweR vise à faciliter l'obtention ou la vérification des études empiriques de puissance pour les tests d'ajustement. En tant que tel, il peut être considéré comme un outil de calcul de recherche reproductible, car il devient très facile à reproduire (ou détecter les erreurs) des résultats de simulation déjà publiés dans la littérature. En utilisant notre progiciel, il devient facile de concevoir de nouvelles études de simulation. Les valeurs critiques et puissances de nombreuses statistiques de tests sous une grande variété de distributions alternatives sont obtenues très rapidement et avec précision en utilisant un C/C++ et R environnement. On peut même compter sur le progiciel snow de R pour le calcul parallèle, en utilisant un processeur multicœur. Les résultats peuvent être affichés en utilisant des tables latex ou des graphiques spécialisés, qui peuvent être incorporés directement dans vos publications. Ce document donne un aperçu des principaux objectifs et les principes de conception ainsi que les stratégies d'adaptation et d'extension.<br>Package PoweR aims at facilitating the obtainment or verification of empirical power studies for goodness-of-fit tests. As such, it can be seen as a reproducible research computational tool because it becomes very easy to reproduce (or detect errors in) simulation results already published in the literature. Using our package, it becomes easy to design new simulation studies. The empirical levels and powers for many statistical test statistics under a wide variety of alternative distributions are obtained fastly and accurately using a C/C++ and R environment. One can even rely on package snow to parallelize their computations, using a multicore processor. The results can be displayed using LaTeX tables or specialized graphs, which can be directly incorporated into your publications. This paper gives an overview of the main design aims and principles as well as strategies for adaptation and extension. Hand-on illustrations are presented to get new users started easily.
APA, Harvard, Vancouver, ISO, and other styles
35

Genest, Marie-Hélène. "Recherche du neutralino avec les détecteurs ATLAS et PICASSO." Thèse, 2007. http://hdl.handle.net/1866/18106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Tremblay, Pierre-Alexandre. "Stochastic mesh approximations for dynamic hedging with costs." Thèse, 2017. http://hdl.handle.net/1866/20499.

Full text
Abstract:
Cette thèse se concentre sur le calcul de la solution optimale d'un problème de couverture de produit dérivé en temps discret. Le problème consiste à minimiser une mesure de risque, définie comme l'espérance d'une fonction convexe du profit (ou perte) du portefeuille, en tenant compte des frais de transaction. Lorsqu'il y a des coûts, il peut être optimal de ne pas transiger. Ainsi, les solutions sont caractérisées par des frontières de transaction. En général, les politiques optimales et les fonctions de risque associées ne sont pas connues explicitement, mais une stratégie bien connue consiste à approximer les solutions de manière récursive en utilisant la programmation dynamique. Notre contribution principale est d'appliquer la méthode du maillage stochastique. Cela permet d'utiliser des processus stochastiques multi-dimensionels pour les dynamiques de prix. On obtient aussi des estimateurs biasés à la hausse et à la baisse, donnant une mesure de la proximité de l'optimum. Nous considérons différentes façons d'améliorer l'efficacité computationelle. Utiliser la technique des variables de contrôle réduit le bruit qui provient de l'utilisation de prix de dérivés estimés à même le maillage stochastique. Deux autres techniques apportent des réductions complémentaires du temps de calcul : utiliser une grille unique pour les états du maillage et utiliser une procédure de "roulette Russe". Dans la dernière partie de la thèse, nous présentons une application pour le cas de la fonction de risque exponentielle négative et un modèle à volatilité stochastique (le modèle de Ornstein-Uhlenbeck exponentiel). Nous étudions le comportement des solutions sous diverses configurations des paramètres du modèle et comparons la performance des politiques basées sur un maillage à celles d'heuristiques.<br>This thesis focuses on computing the optimal solution to a derivative hedging problem in discrete time. The problem is to minimize a risk measure, defined as the expectation of a convex function of the terminal profit and loss of the portfolio, taking transaction costs into account. In the presence of costs, it is sometimes optimal not to trade, so the solutions are characterized in terms of trading boundaries. In general, the optimal policies and the associated risk functions are not known explicitly, but a well-known strategy is to approximate the solutions recursively using dynamic programming. Our central innovation is in applying the stochastic mesh method, which was originally applied to option pricing. It allows exibility for the price dynamics, which could be driven by a multi-dimensional stochastic process. It also yields both low and high biased estimators of the optimal risk, thus providing a measure of closeness to the actual optimum. We look at various ways to improve the computational efficiency. Using the control variate technique reduces the noise that comes from using derivative prices estimated on the stochastic mesh. Two additional techniques turn out to provide complementary computation time reductions : using a single grid for the mesh states and using a so-called Russian roulette procedure. In the last part of the thesis, we showcase an application to the particular case of the negative exponential risk function and a stochastic volatility model (the exponential Ornstein-Uhlenbeck model). We study the behavior of the solutions under various configurations of the model parameters and compare the performance of the mesh-based policies with that of well-known heuristics.
APA, Harvard, Vancouver, ISO, and other styles
37

Lafrenière, Matthieu. "Mesures d'étalonnage aux neutrons et caractérisation par étude Monte Carlo de la réponse des détecteurs à gouttelettes surchauffées conçus pour la recherche et la détection directe du neutralino (la matière sombre) menant aux résultats finaux de l'expérience PICASSO." Thèse, 2016. http://hdl.handle.net/1866/20603.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography