To see the other types of publications on this topic, follow the link: Énergie – Expériences.

Dissertations / Theses on the topic 'Énergie – Expériences'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Énergie – Expériences.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aubert, Philippe. "Quelques expériences numériques de milieux hyperélastiques hétérogènes en grandes déformations." Montpellier 2, 2006. http://www.theses.fr/2006MON20217.

Full text
Abstract:
Certaines applications comme la densification massique ou superficielle mettent en jeu la compression transverse aux fibres du bois. D’un point de vue numérique, il est nécessaire de considérer un domaine d’étude important. L’homogénéisation permet de contourner cette difficulté. Tout d’abord, j’ai confronté les résultats numériques avec des résultats théoriques. Après la validation de ceux-ci, j’ai étendu cette étude à des densités d’énergie réalistes d’un point de vue mécanique. Enfin, cette étude a montré que la géométrie de la cellule de base est un facteur important
Some applications such the mass or surface thickening involve the transverse compression of the wood fibers. From a numerical point of view, it is necessary to consider an important volum to obtain rigorous results. The homogenization allows us to overcome this difficulty. First, we confronted the numerical results with the theoretical ones. After the validation of the results obtained, we extend this study to a realistic energy density from a mechanical point of view. Lastly, this study has shown that the energy of the basic cell is an important factor
APA, Harvard, Vancouver, ISO, and other styles
2

Becu-Robinault, Karine. "Rôle de l'expérience en classe de physique dans l'acquisition des connaissances sur les phénomènes énergétiques." Lyon 1, 1997. http://www.theses.fr/1997LYO10050.

Full text
Abstract:
Notre travail de thèse porte sur le rôle de l'expérience en classe de physique dans l'acquisition des connaissances sur les phénomènes énergétiques. Il s'appuie sur deux domaines de recherche actuels de la didactique : le rôle de l'expérience et l'enseignement de l'énergie. Pour comprendre l'importance et le rôle des expériences dans l'enseignement de l'énergie au lycée, nous avons aborde l'étude de l'enseignement effectif avec deux points de vue, l'un concernant l'enseignement et l'autre l'apprentissage. La première partie de notre thèse concerne une étude historique de l'enseignement de l'énergie depuis l'introduction officielle des TP au lycée. Nous avons centre notre recherche sur les contraintes liées a l'enseignement et en particulier a celle de la réalisation des expériences. Ceci nous a conduit a définir des critères de stabilité d'une expérience dans les manuels. A ces fins, les caractéristiques des expériences plus ou moins pérennes ont été établies, autant du point de vue de leur phénoménologie, que de leur formalisation ou de leur interprétation. La deuxième partie concerne des études de cas : nous avons alors centre notre analyse sur les activités de modélisation des élèves lorsqu'ils réalisent et interprètent des expériences qui ont été sélectionnées a partir des critères de stabilité de notre première partie. Pour cela, nous avons suivi des TP conduits par des groupes de deux élèves de 16 a 17 ans en classe. Une autre situation dans laquelle les élèves devaient conduire une expérience, en utilisant des nouvelles technologies de communication a été analysee. Les dialogues d'élèves ont été transcrits et analyses a partir d'une grille décrivant les différents niveaux de modélisation. Nous avons également choisi d'enrichir cette grille par des aspects sémiotiques. Les taches proposées aux élèves comme leurs activités durant la résolution sont analysées a partir de la
APA, Harvard, Vancouver, ISO, and other styles
3

Canal, Jean-Loup. "Courant, tension, résistance et énergie : essai de conceptualisation des grandeurs fondamentales en électricité (propositions d'analogies modélisantes)." Toulouse 3, 1996. http://www.theses.fr/1996TOU30056.

Full text
Abstract:
De nombreux chercheurs ont découvert les différentes conceptions sur lesquels s'appuient les élèves dans leur raisonnement en electrocinetique. Comment les aider pour les dépasser ? Les livres scolaires, en accord avec les programmes, proposent des activités de mesure. Mais l'acte de mesure, s'il permet de cerner la grandeur impliquée, ne la conceptualise pas: les conceptions des élèves ne sont nullement ébranlées. Des analogies modélisantes pourraient-elles permettre de donner du sens aux grandeurs fondamentales de l'electrocinetique (courant, tension, résistance) ? A priori, l'analogie est mal perçue par les enseignants. Qu'en pensent les philosophes des sciences ? Leurs avis sont très partages aussi, était-il souhaitable d'essayer de nouveau. Pour donner du sens a ces grandeurs, ces analogies ont été construites autour de l'idée d'un transfert d'énergie, ce qui ne fait que traduire la réalité d'un circuit. Ces grandeurs étant liées, leurs conceptualisations le sont aussi: a travers ces analogies, leur étude a été conduite simultanément et non successivement. Les premiers essais dans des classes a divers niveaux et leurs évaluations fournissent des résultats encourageants. Enfin, ces analogies conduisent a revenir sur le problème de transfert d'énergie dans un circuit électrique et sur celui de l'avancement des charges dans les divers éléments constitutifs du circuit
APA, Harvard, Vancouver, ISO, and other styles
4

Cellier-Holzem, Flora. "Spectroscopie des supernovae de type Ia des expériences SuperNova Legacy Survey et Nearby SuperNova Factory pour la cosmologie." Paris 6, 2013. http://www.theses.fr/2013PA066568.

Full text
Abstract:
Les supernovae de type Ia (SNe Ia) sont aujourd'hui un outil puissant en cosmologie pour étudier l'accélération de l'expansion de l'univers. Utilisées comme chandelles standard, elles permettent de contraindre l'équation d'état de l'énergie noire à travers un diagramme de Hubble. La spectroscopie est une étape essentielle à la construction de ce diagramme à la fois pour s'assurer que les objets sont bien des SNe Ia et déterminer leur décalage vers le rouge, mais également pour mieux comprendre leurs propriétés physiques et ainsi réduire les incertitudes systématiques qui limitent l'utilisation des SNe Ia en cosmologie. Dans ce cadre, je constitue un nouvel échantillon de spectres de SNe Ia mesurés au Very Large Telescope (VLT) pour l'expérience SuperNova Legacy Survey (SNLS). Ce lot de SNe Ia rejoint celui déjà existant pour constituer l'échantillon final de spectres VLT des SNe Ia SNLS. En plus d'être intégré au diagramme de Hubble pour les analyses cosmologiques, ce lot spectroscopique peut tre utilisé pour tester si les propriétés des SNe Ia évoluent avec le décalage vers le rouge. J'aborde cette question fondamentale pour la cosmologie en utilisant à la fois le nouveau lot de spectres VLT de SNe Ia lointaines et celui des objets proches de l'expérience Nearby SuperNova Factory (SNF). Ces deux lots de spectres sont également une riche source d'information pour mieux connaître les SNe Ia et comment les standardiser. Je les confronte pour cela avec divers modèles de formations de SNe Ia afin de déterminer les zones ou paramètres discriminants qui permettraient d'améliorer les modèles pour reproduire les observations et la variabilité des SNe Ia
Type Ia supernovae (SNe Ia) are a powerful tool in cosmology today to study the acceleration of the universal expansion. Using as standardisable candles, they allow us to constrain the dark energy equation of state via a Hubble diagram. The spectroscopy is essential to build this diagram, on the one hand to secure the type of SNe Ia and estimate the redhsift, and on the other hand for a better knowledge of their physical properties to reduce the systematic uncertainties which limit the use of SNe Ia for cosmological works. In this context, I build a new sample of SN Ia spectra measured by the Very Large Telescope (VLT) for the SuperNova Legacy Survey (SNLS) experiment. These SN Ia data complete the existing sample to constitute the final VLT spectroscopic dataset of the SNLS. In addition to the inclusion in the Hubble diagram for cosmological analysis, this spectroscopic sample can be used to test if SNe Ia properties evolve with the redshift. I investigate this fundamental question for cosmology using the new VLT spectra sample of distant SNe Ia and the nearby object of the Nearby SuperNova Factory (SNF) experiment. These two samples are also a rich source of physical information for a better knowledge of SNe Ia and a better standardisation. For this purpose, I compare these data with various SNe Ia formation models to identify discriminant spectral area or parameters in order to constrain and improve the models to reproduce the observations and the SNe Ia variability
APA, Harvard, Vancouver, ISO, and other styles
5

Neveu, Jeremy. "Contraintes expérimentales sur des modèles à champ scalaire léger en cosmologie et physique des particules (expériences SNLS et CMS)." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066233/document.

Full text
Abstract:
Face à la nature inconnue de l'énergie noire et de la matière noire, des modèles à champ scalaire léger ont été proposés pour expliquer l'accélération tardive de l'expansion de l'Univers et l'apparente abondance de matière non baryonique dans l'Univers. Dans une première partie, cette thèse confronte de la façon la plus précise possible les données de cosmologie les plus récentes au modèle du Galiléon, une théorie de gravité modifiée possédant des propriétés théoriques particulièrement intéressantes. Des contraintes observationnelles sur les paramètres du modèle sont dérivées en utilisant les dernières mesures liées aux distances cosmologiques et à la croissance des grandes structures de l'Univers. Un bon accord est observé entre les données et les prédictions théoriques, faisant du Galiléon un modèle alternatif compétitif avec celui de la constante cosmologique. Dans une seconde partie, la production de Branons, particules scalaires candidates au statut de matière noire venant d'une théorie de dimensions supplémentaires, est recherchée dans les collisions proton-proton enregistrées en 2012 par l'expérience Compact Muon Solenoid auprès du Grand Collisionneur de Hadrons. Des événements présentant un photon et de l'énergie transverse manquante dans l'état final sont sélectionnés dans les données et comparés aux estimations des bruits de fonds attendus. Aucun excès d'événements n'étant observé, des limites expérimentales sur les paramètres de la théorie du Branon sont calculées. Elles sont les plus contraignantes à ce jour. Cette thèse se conclut par des arguments pour une description unifiée des deux modèles étudiés, dans le cadre des théories de dimensions supplémentaires
The nature of dark energy and dark matter is still unknown today. Light scalar field models have been proposed to explain the late-time accelerated expansion of the Universe and the apparent abundance of non-baryonic matter. In the first part of this thesis, the Galileon theory, a well-posed modified gravity theory preserving the local gravitation thanks to the Vainshtein screening effect, is accurately tested against recent cosmological data. Observational constraints are derived on the model parameters using cosmological distance and growth rate of structure measurements. A good agreement is observed between data and theory predictions. The Galileon theory appears therefore as a promising alternative to the cosmological constant scenario. In the second part, the dark matter question is explored through an extra-dimension theory containing massive and stable scalar fields called Branons. Branon production is searched for in the proton-proton collisions that were collected by the Compact Muon Solenoid experiment in 2012 at the Large Hadron Collider. Events with a single photon and transverse missing energy are selected in this data set and compared to the Standard Model and instrumental background estimates. No signature of new physics is observed, so experimental limits on the Branon model parameters are derived. This thesis concludes with some ideas to reach an unified description of both models in the frame of extra-dimension theories
APA, Harvard, Vancouver, ISO, and other styles
6

Liu, Hui. "Stockage inter-saisonnier d'énergie solaire pour l'habitat par absorption." Chambéry, 2010. http://www.theses.fr/2010CHAMS045.

Full text
Abstract:
Un prototype de démonstration de la faisabilité de ce concept innovant avec le couple CaC12/H2O a été conçu, dimensionné et construit. Il est issu d'une optimisation minimisant le nombre de composants du système. Des expérimentations ont été effectuées à différentes conditions de fonctionnement. Les performances thermodynamiques et les différents problèmes du prototype sont analysés. Comme les résultats expérimentaux sont influencés par plusieurs facteurs tels que la présence d'air dans le système (en particulier pour la phase d'absorption), la précision des capteurs et des facteurs humains lors de l'opération, pour une meilleure compréhension du processus, une simulation dynamique est développée. Le fonctionnement optimal du prototype est alors étudié. Une simulation globale annuelle est effectuée afin d'étudier le fonctionnement annuel du système de stockage inter-saisonnier en lien avec un système solaire et un bâtiment. Les modèles du système de stockage, d'un capteur solaire, d'un bâtiment et des conditions météorologiques sont couplés. Les caractéristiques : pressions, températures, masses, fractions massiques, puissances échangées, rendements, capacités de stockage, etc. Du système de stockage sont présentés et analysés
An innovative concept of seasonal storage of solar energy for house heating by absorption is developed in this thesis. The process is introduced and described. The study of the storage capacity, the efficiency, the operating pressure, the temperature need for solar energy, the possible temperature for house heating, the material security and the material economy of seven absorption couples : CaC12/H2O, Glycerin/H2O, KOH/H2O, LiBr/H2O, LiCI/H2O, NaOH/H2O and H2O/NH3 is performed by a static simulation. A prototype of demonstration of the feasibility of the concept with the absorption couple CaC12/H2O is designed, dimensioned and built. It has been optimized, in order to minimize the number of components of the system. Experimentations are carried out at different operating conditions. The thermodynamic performances and the problems of the prototype are analyzed. As the experimental results are influenced by several factors, for a better understanding of the process, a dynamic simulation is developed to represent the prototype. The optimal functioning of the prototype is thus studied through the dynamic simulation. An global annual dynamic simulation is performed in order to obtain the annual performance of the seasonal storage system in a building. Models of the storage system, of a solar collector, a building and weather conditions are used. The characteristics such as the pressure, the temperature, the mass, the mass fraction, the power, the efficiency, the storage capacity etc. Of the storage system are presented and analyzed
APA, Harvard, Vancouver, ISO, and other styles
7

Driga, Olga. "Analyse des données des calorimètres d'ALICE et étude de la production des hadrons de basse impulsion dans les collisions de grande énergie." Nantes, 2012. https://archive.bu.univ-nantes.fr/pollux/show/show?id=84303af8-6124-4a00-aa86-8018f03041b7.

Full text
Abstract:
L’expérience ALICE auprès du LHC est dédiée à l’étude des multiples facettes de l’inter-action forte. La théorie microscopique de cette dernière, QCD, et sa manifestation dans la production de particules peuvent être explorées en étudiant les observables de jets. La maîtrise de sa calorimétrie est centrale à l’étude de la physique des jets avec ALICE. C’est l’un des sujets abordés dans ce travail. Plus précisément, une des premières tâches est de vérifier la qualité des données disponibles. A cet effet, l’assurance de la qualité (AQ) des données pour les calorimètres électromagnétiques d’ALICE, PHOS et EMCAL, a été développée. Sur cette base, la mesure des pions neutres, 0 et via leur désintégration en deux photons a été réalisée. Le succès dans la compréhension de la dynamique des particules de basse énergie à l’intérieur des jets s’appuie sur des calculs de la QCD perturbative, laquelle a déjà été testée expérimentalement avec un niveau d’accord impressionnant. La théorie prédit que le spectre des particules à l’intérieur des jets est indépendante de l’énergie de la collision dans la limite d’impulsion nulle (p ! 0). Afin de tester cette prédiction, une étude systématique des données expérimentales provenant des collisionneurs de hadrons et de leptons aux énergies de collision de quelques dizaines de GeV jusqu’à l’échelle du TeV au LHC a été réalisée
The ALICE experiment at LHC is dedicated to the study of many facets of the strong interaction. The microscopic theory of the latter, QCD, and its manifestation in particle production can be thoroughly explored by studying jet observables. Central to the study of jet physics with ALICE is the mastering of its calorimetry. This is one of the topics addressed in this work namely carrying out one of the first tasks which is to verify the quality of available data. For this purpose the Quality Assurance (QA) framework for ALICE electromagnetic calorimeters, PHOS and EMCAL, was developed. On this base, the measurement of neutral pions, 0 and , via their two photon decays was performed. The success in understanding dynamics of soft particles inside jets relies on calculations of perturbative QCD, impressive accuracy of which has already been tested experimentally. The theory predicts that the inclusive particle spectrum inside jets is independent of a collision energy in the limiting case of zero momentum (p ! 0). In order to test this prediction, a systematic study of world experimental data from hadron and lepton colliders at the collision energies from tens of GeV up to the TeV scale at the LHC has been performed
APA, Harvard, Vancouver, ISO, and other styles
8

Mermoud, Floriane. "Gazéification de charbon de bois à la vapeur d'eau : de la particule isolée au lit fixe continu." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7498/1/mermoud.pdf.

Full text
Abstract:
Face à la croissance de la demande énergétique mondiale et la récente prise de conscience des problèmes d'augmentation de l'effet de serre et d'épuisement des ressources fossiles, les énergies renouvelables suscitent aujourd'hui un intérêt sans égal. Dans ce contexte, la biomasse présente un potentiel important, et des technologies de valorisation efficaces, comme la gazéification, émergent et encouragent le développement de cette filière. Une étude expérimentale de la gazéification à la vapeur d'eau d'une particule de charbon de bois isolée a été réalisée sur un réacteur de type "macro-TG". L'évolution de la masse de la particule a été enregistrée durant sa gazéification dans des conditions opératoires maîtrisées. Ainsi, à une température de 930°C et sous une pression partielle de vapeur d'eau de 0,2 atm, une particule de charbon de bois de 7 mm de diamètre se gazéifie en 32 min. L'étude paramétrique menée a permis d'identifier la température et la vitesse de chauffe pendant la pyrolyse comme des paramètres particulièrement influents sur la vitesse de gazéification. La recherche d'un critère de surface réactive du char a également été entreprise. Un modèle numérique de gazéification d'une particule de charbon de bois a été développé. La confrontation avec les résultats expérimentaux issus de l'étude paramétrique a permis de déterminer les paramètres cinétiques de la réaction de gazéification à la vapeur d'eau. Les résultats obtenus ont montré que dans des conditions opératoires industrielles, le processus de gazéification d'une particule de char ne suivait ni un modèle de coeur rétrécissant, ni un modèle homogène. Le modèle a permis d'appréhender les couplages entre cinétique chimique et transferts de chaleur et de matière au sein même de la particule. Un réacteur expérimental de gazéification en lit fixe continu a été spécialement conçu et réalisé ; il reproduit finement les conditions opératoires d'un réacteur industriel. Les premiers tests en régime continu ont permis de réaliser des bilans massiques très satisfaisants.
APA, Harvard, Vancouver, ISO, and other styles
9

Drevard, Déborah. "Étude expérimentale et numérique de la propagation d'ondes de gravité en zone de déferlement." Toulon, 2006. http://www.theses.fr/2006TOUL0003.

Full text
Abstract:
L'objectif de ce travail est d'étudier expérimentalement et numériquement la propagation et le déferlement d'ondes de gravité. La première partie, expérimentale, propose des méthodes de calcul, basées sur les houles de Stokes, pour la mesure d'ondes partiellement stationnaires à partir d'instruments de type électromagnétique (S4) ou acoustique (ADV) donnant des mesures synchrones de vitesses et/ou de pression. Les influences du courant, de la direction de propagation, de la profondeur d'immersion des appareils ainsi que des effets non linéaires sont alors étudiés à partir de données en bassin et in situ. La deuxième partie, numérique, consiste en la validation d'une méthode de suivi de surface libre (SL-VOF : Semi-Lagrangian Volume Of Fluid), insérée dans un code de calcul industriel (Société Principia R&D). L'étude de la propagation et du déferlement du soliton est effectuée pour deux applications : sur une marche puis sur un fond de pente constante 1/15
The purpose of this work consists in studying experimentally and numerically the propagation and the breaking of gravity waves. In the first part, calculations, based on Stokes wave theory, are proposed for the measurement of partially standing wave from electromagnetic (S4) or acoustic (ADV) instruments giving velocities and/or pressure synchronous measurements. Influences of current, wave propagation direction, immersion depth of instrument and nonlinear effects are then studied for both laboratory and nearshore experiments. In the second part, an improved interface tracking algorithm (SL-VOF, Semi-Lagrangian Volume Of Fluid), inserted in an industrial code (EOLE, Principia R&D) is validated for gravity wave breaking in shallow water. Two applications are considered for the study of the shoaling and the breaking of a solitary wave: over a step (discontinuity of the bottom) and over a constant mild slope (1/15)
APA, Harvard, Vancouver, ISO, and other styles
10

Neji, Jamel. "Fissuration des chaussées semi-rigides : expérience et modélisation." Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0246.

Full text
Abstract:
Un prototype d'appareillage baptise fissuromètre ENTPE/Gerland permettant de simuler en laboratoire le phénomène de remontée des fissures est proposé. Cet appareillage comprend un ensemble de capteurs d'efforts et de déplacements, des jauges de déformation et un système de transmission ultrasonore. Cet ensemble permet de suivre l'évolution de la fissuration de la couche de roulement au droit de la préfissure de la couche de base. Une campagne paramétrique d'essais réalisée sur un béton bitumineux classique de couche de roulement est ensuite proposée. Trois critères permettant de caractériser l'évolution de l'endommagement ou/et de la fissuration de la couche de roulement sont proposes. Ces criteres donnent des résultats concordants. Une étude de validation de ces critères par des résultats d'observations de la fissuration in situ est présentée. Le site choisi est l'ensemble des planches d'essais de la route nationale n20. Nous avons mis en évidence l'influence de la déformabilité de l'interface sur la remontée des fissures dans la couche de roulement. Le phénomène de propagation des ondes ultra-sonores dans les bétons bitumineux est ensuite abordé. Plusieurs propriétés telles que l'influence de la température, la fréquence d'émission, la taille des grains ainsi que l'anisotropie des échantillons ont été testées. Nous avons utilisé les résultats expérimentaux pour caler un modèle de propagation des fissures dans les chaussées (loi de paris) qui utilise la théorie de la mécanique de rupture fragile. Les calculs ont été faits à l'aide du code élément finis cesar du LCPC
APA, Harvard, Vancouver, ISO, and other styles
11

Bellétoile, Arnaud. "Développement et analyse des données d'une expérience de radiodétection des rayons cosmiques d'ultra haute énergie." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00202782.

Full text
Abstract:
La détection radio des rayons cosmiques a été tentée dans les années 60 mais a rapidement été abandonnée du fait du manque de reproductibilité des résultats et des limitations techniques de l'époque au profit d'autres techniques comme les réseaux de détecteurs au sol ou les détecteurs de fluorescence

Aujourd'hui, la compréhension de l'origine et de la nature des rayons cosmiques d'ultra haute énergie constitue l'un des enjeux scientifiques de premier plan pour la communauté des physiciens des astroparticules. Cependant, le très faible flux de particules à ces énergies rend difficile leur étude et nécessite la mise en place de détecteurs géants. C'est dans ce contexte et compte tenu des récents développements technologiques que la méthode de radio-détection des rayons cosmiques est réinvestiguée. Ses qualités intrinsèques doivent permettre, en complément des méthodes de détection existantes de renforcer la statistique et la précision des observatoires de ces rayons cosmiques d'ultra haute énergie.

Après avoir rappelé la problématique des rayons cosmiques, nous présentons l'état actuel des connaissances concernant l'émission radioélectrique associée au développement de gerbes atmosphériques. Nous décrivons ensuite en détail les développements techniques mis en œuvre pour construire et rendre opérationnel le démonstrateur expérimental CODALEMA installé à Nançay. Nous discuterons les méthodes d'analyses ainsi que les résultats obtenus avec cet instrument qui a permis de démontrer pour la première fois, de manière non ambiguë, la détection d'un signal radio associé au passage d'une gerbe atmosphérique. Nous présentons aussi le banc de test implanté sur le détecteur géant Pierre Auger en Argentine, et dont le but est d'apporter des réponses sur les caractéristiques que devrait posséder un grand détecteur radio pour le domaine d'étude des énergies extrêmes
APA, Harvard, Vancouver, ISO, and other styles
12

Courbois, Adrien. "Etude expérimentale du comportement dynamique d'une éolienne offshore flottante soumise à l'action conjuguée de la houle et du vent." Ecole centrale de Nantes, 2013. https://tel.archives-ouvertes.fr/tel-00840511.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Scouflaire, Charlotte. "Mécanismes de rémunération de la capacité : évaluation analytique des expériences contemporaines et leçons pour la conception future des marchés de l'électricité. Real World Capacity Mechanisms: Context, Dynamics and Performance What Do Models Tell Us About Capacity Remuneration Mechanisms? Information Value in Capacity Market Designs Capacity Remuneration in Power Markets: An Empirical Assessment of the Costs and Benefits of Precaution." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED017.

Full text
Abstract:
Les mécanismes de capacité (CRM) sont instaurés pour aligner l’équilibre de marché avec l’optimum social, c’est-à dire assurer la sécurité d’approvisionnement au moindre coût. Sur le plan théorique, les marchés energy-only sont censés atteindre cet objectif, mais leur efficacité est mise en doute. Si le bien-fondé de la qualification des CRMs comme mécanisme optimal de second rang occupe les chercheurs depuis plusieurs décennies, l’évaluation empirique des CRMs a reçu une attention beaucoup plus limitée. Cette lacune constitue un domaine de recherche académique fertile, mais limite la capacité de chacun à transposer les résultats théoriques en termes d’élaboration de politiques publiques. L’évaluation empirique des CRMs est d’autant plus nécessaire que leur performance dépend non seulement de paramètres structurels, techniques et culturels spécifiques à chaque pays, mais aussi des détails de leur mise en œuvre. A ce titre, cette thèse présente le premier travail traitant de la performance empirique des CRMs ainsi que des choix de mise en œuvre réglementaire. L’étude de la convergence relative des designs des CRMs depuis les années90 permet l’identification des caractéristiques indispensables à leur succès quand les divergences de résultats dans la littérature quantitative existante aident à prendre la mesure des défis futurs restants. Le coût net d’une telle intervention sur le marché est aussi discuté à l’aide d’une approche économétrique trans-nationale. Enfin, les préférences des agents quant à la précision de l’information sur les obligations de capacité sont abordées dans un modèle analytique
Capacity remuneration mechanisms (CRMs) are widely implemented as an attempt of correcting the real-world imperfections of electricity markets and aligning market outcomes with social optimality. Mainly, many observers doubt theability of the EOM to provide sufficient investment incentives to ensure the security of supply, and CRMs are expected to mitigate the risk of failure. Unfortunately, the numerous real world experiences have led to limited academic publications.In addition, the abundant theoretical literature fails to deliver clear take away messages with respect to the performance ofCRMs in real life conditions. The empirical assessment of CRMs is all the more necessary as their performance depends on a number of country-specific, structural, technical and behavioral parameters, as well on the details of implementation that structure the incentives. Reducing the literature gap from both ends, this doctoral thesis represents the first attempts to empirically discuss CRM performance and design choices. It provides a conceptual reflection on the evolution of CRM designs over time (Chapter 1) and discusses the divergences existing in the quantitative literature (Chapter 2). It also contributesto the discussion on the net cost of such intervention thanks to an econometric cross-country analysis (Chapter4). From a theoretical stand point, an analytical model analyses the preferences for the precision of information available under different capacity market designs (Chapter 3)
APA, Harvard, Vancouver, ISO, and other styles
14

Royer, Thierry. "Collisions atomiques aux énergies moyennes impliquant des états excités par laser." Paris 11, 1989. http://www.theses.fr/1989PA112322.

Full text
Abstract:
Dans ce travail expérimental, nous nous sommes intéressés à l'étude de transitions électroniques, induites dans des collisions impliquant des atomes alignés et/ou orientés dans le domaine énergies moyennes (350eV-3keV), en particulier l'excitation directe dans les collisions He Na(3s),en analysant la désexcitation lumineuse du Na(3p-. 3s), et l'échange de charge dans H++Na(3s,3p). Pour atteindre ce dernier objectif, nous avons réalisé des expériences de collision atome-atome en réunissant des méthodes d'analyse performantes, c'est à dire : (i) pour l'étude des transitions électroniques, l'analyse en angle et en énergie des particules rapides diffusées, mettant en oeuvre la spectrométrie par temps de vol ; (ii) pour la préparation de la cible de Sodium excitée, un laser à colorant accordable et monomode, que nous avons asservi sur une transition de structure hyperfine. L'identification des voies de sortie de la réaction, H(n)+Na+, a été faite, et des mesures de sections efficaces totales prises. Les conclusions de ce rapport devraient favoriser des études théoriques détaillées des systèmes étudiés
The present work is devoted to the investigation of electronic transitions induced from excited aligned and oriented atoms in the medium energy range (between 350eV and 3keV), especially the direct excitation process in He-Na(3s) collisions by coherence analysis and the charge exchange reactions in the H++Na(3s,3p) collisions. The investigation of this collision requires performing a sophisticated experiment which combines two main techniques : (i) the angular and energy analysis of scattered particles, by high resolution time of flight spectroscopy and (ii) the preparation of an excited target by means of a tunable ring laser, locked on a selected Sodium hyperfine transition. We have identified the outgoïng: channels H(n)+Na+ populated and recorded the corresponding total cross sections. The present results should incite to further theoretical research on those systems
APA, Harvard, Vancouver, ISO, and other styles
15

Van, Hecke Bruno. "Production π ⁺ , π ⁻ via effet Primakoff à 200 GeV : étude de la production du rho ⁻ : étude au seuil (expérience NA29)." Paris 11, 1985. http://www.theses.fr/1985PA112066.

Full text
Abstract:
Les deux buts fixés par la proposition de l’expérience NA29 sont les suivants : a) détermination de la largeur de désintégration radiative du méson ρ⁻, Γγ (ρ⁻ → π⁻ γ), b) vérification du théorème de basse énergie reliant les processus π⁰ → 2γ et γ → 3π, menant au nombre de couleurs des quarks. Le premier, réalisé au SPS du CERN en Juin-juillet 1982, semble avoir été atteint ; le second reste à l’état de projet. Avec l’aide d’un faisceau de pions d’énergie incidence 200 GeV, et deux cibles à Z élevés, Cuivre ou Plomb, servant de sources cohérentes de photons quasi-réels, on étudie les réactions π⁻ γ → ρ⁻ → π⁻ π⁰, et π⁻ γ → π⁻ π⁰ au sein de la production du système π⁻ π⁰, via Effet Primakoff. Notre analyse donne une largeur de désintégration radiative égale à 64. 4 KeV ; valeur qui reste en deçà de la valeur théorique orthodoxe de 90-100 KeV. Néanmoins, notre résultat semble etre en faveur du modèle des quarks, sans toutefois nier le modèle VMD. Pour faciliter la détection des particules chargées sous un angle intérieur à 3 mrad, le groupe de Clermont-Ferrand a conçu et réalisé un processeur rapide. Cet appareil a fait l’objet d’une expérience-test en Mai 1984. Pour terminer cette étude, nous réalisons quelques calculs théoriques concernant la seconde phase de l’expérience NA29. Nous confrontons nos résultats avec ceux obtenus dans une expérience récente réalisée à Serpukhov. A l’issue de cette comparaison, nous concluons que la vérification effective du théorème de basse énergie reste ouverte. De plus, en supposant vraie l’hypothèse du nombre de couleur égal à 3, nous fournissons une estimation du rapport des masses des quarks u et d. Le modèle utilisé nous procure la valeur md/mu = 32 environ
The two aims of NA29 experiment were: a. Determination of radiative decay width of ρ⁻meson, Γγ (ρ⁻ → π⁻ γ), b. Test of the low energy theorem which links the two processes ⁰ → 2γ and γ → 3π, leading to the number of quark colors. The first aim, carried out on SPS at CERN in June-July 1982, seems to be achieved; the second one remains a project. With a 200 GeV beam particle (π⁰); and two targets with high Z, Copper and Lead, used as coherent sources of quasi-real photons, we study the reactions π⁻ γ → ρ⁻ → π⁻ π⁰ and π⁻ γ → π⁻ π⁰ at threshold of π⁻ π⁰ production, via Primakoff Effect. Our analysis gives a radiative decay width of 64. 4 KeV; this value remains below the 90-100 KeV average value proposed by quark and VMD models. To facilitate the detection of charged particles emitted under an angle value less than 3 mrad, the Clermont-Ferrand group has produced a fast processor. This apparatus has been checked in May 1984. Then, we work out some theoretical calculations about the second part of NA29 experiment. We compare our results with one obtained in a recent experiment at Serpukhov. We conclude the test of the low energy theorem is not closed. At last, if we assume the hypothesis of 3 number quark of colors true, we furnish an estimation of the mass report of quarks u and d. The model used gives the average values: md/mu = 32
APA, Harvard, Vancouver, ISO, and other styles
16

Anvar, Shebli. "Méthodologie de développement et de modélisation UML des systèmes d'acquisition et de traitement en temps réel pour les expériences de physique des hautes énergies." Paris 11, 2002. https://tel.archives-ouvertes.fr/tel-00002854.

Full text
Abstract:
La complexité croissante des systèmes d'acquisition et de traitement en temps réel (TDAQ) pour les expériences de physique des hautes énergies appelle à une évolution ad hoc des outils de développement. Dans cet ouvrage, nous traitons de l'articulation entre la spécification de principe des systèmes TDAQ et leur conception/réalisation sur une plateforme matérielle et logicielle concrète. Notre travail repose sur la définition d'une méthodologie de développement des systèmes TDAQ qui réponde aux problématiques de développement particulières à ces systèmes. Il en résulte la spécification détaillée d'un "canevas méthodologique" basé sur le langage UML, destiné à encadrer un processus de développement. L'usage de ce canevas méthodologique UML doit permettre la mise en place progressive d'un canevas " maison ", c'est-à-dire un atelier de développement comprenant des composants réutilisables et des éléments d'architecture génériques adaptés aux applications TDAQ. L'ouvrage s'articule autour de 4 sections principales. La section II est dévolue à la caractérisation et à l'évolution des systèmes TDAQ. En section III, nous nous intéressons aux technologies pertinentes pour notre problématique, notamment les techniques de réutilisation logicielle telles les motifs récurrents (design patterns) et les canevas (frameworks), avec une orientation en faveur des domaines du temps réel et de l'embarqué. Notre apport conceptuel spécifique est exposé en section IV, où nous procédons notamment à la spécification détaillée, formalisée et exemples à l'appui, de notre modèle de développement. Enfin, nous terminons notre propos en section V en évoquant le projet de R&D MORDICUS de mise en œuvre concrète de notre canevas méthodologique UML, ainsi que les développements récents de l'OMG (Object Management Group) sur l'architecture orientée modèles (Model Driven Architecture), particulièrement en résonance avec notre travail
The increasing complexity of the real-time data acquisition and processing systems (TDAQ : the so-called Trigger and Data AcQuisition systems) in high energy physics calls for an appropriate evolution of development tools. This work is about the interplay between in principle specifications of TDAQ systems and their actual design and realization on a concrete hardware and software platform. The basis of our work is to define a methodology for the development of TDAQ systems that meets the specific demands for the development of such systems. The result is the detailed specification of a "methodological framewor" based on the Unified Modeling Language (UML) and designed to manage a development process. The use of this UML-based methodological framework progressively leads to the setting up of a "home-made" framework, i. E. A development tool that comprises reusable components and generic architectural elements adapted to TDAQ systems. The main parts of this dissertation are sections II to IV. Section II is devoted to the characterization and evolution of TDAQ systems. In section III, we review the main technologies that are relevant to our problematic, namely software reuse techniques such as design patterns and frameworks, especially concerning the real-time and embedded systems domain. Our original conceptual contribution is presented in section IV, where we give a detailed, formalized and example- driven specification of our development model. Our final conclusions are presented in section V, where we present the MORDICUS project devoted to a concrete realization of our UML methodological framework, and the deep affinities between our work and the emerging "Model Driven Architecture" (MDA) paradigm developed by the Object Management Group
APA, Harvard, Vancouver, ISO, and other styles
17

Poignon, Corinne. "Étude de la migration des impuretés dans le quartz." Nancy 1, 1995. http://www.theses.fr/1995NAN10389.

Full text
Abstract:
Ce travail porte sur l'étude de la migration des impuretés dans le quartz. Celles-ci sont responsables de la dégradation des performances des résonateurs au cours du temps. Quelques rappels généraux sont donnés sur la cristallographie, les propriétés et la technique de croissance du quartz. Les défauts, notamment les impuretés interstitielles, sont inventoriés. Lors de l'étude théorique microscopique est exprimée l'énergie potentielle d'interaction d'un ion interstitiel et des autres ions environnants. Il existe une technique industrielle de purification, appelée sweeping. Grâce à la méthode T. S. D. (thermally stimulated depolarization), très sensible et dont le principe est proche de celui du sweeping, des mesures de courants thermoïoniques ont été réalisées sur divers cristaux de quartz. Chaque maximum de courant observé correspond à une famille d'impuretés dans un site donné. Nous avons caractérisé des cristaux de quartz avant et après traitement de purification. Les influences de la qualité du cristal et de la coupe (orientation) sont également mises en évidence. Les différents paramètres (durée d'application de la tension électrique, amplitude de cette tension et température à laquelle elle est appliquée) intervenant lors de l'expérience sont étudies. Les énergies d'activation caractérisant les impuretés ioniques responsables de pics de courant sont déterminées. Enfin, une étude d'échantillons dopés avec une impureté donnée est réalisée ce qui permet d'identifier la nature des impuretés responsables de certains pics de courant
APA, Harvard, Vancouver, ISO, and other styles
18

Macko, Miroslav. "Expérience SuperNEMO : Études des incertitudes systématiques sur la reconstruction de traces et sur l'étalonnage en énergie. Evaluation de la sensibilité de la 0nbb avec émission de Majoron pour le Se-82." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0368/document.

Full text
Abstract:
La thèse présentée est composée de divers projets que j’ai réalisés au cours de la phasede construction du démonstrateur SuperNEMO pendant la période 2015-2018.L’expérience SuperNEMO, située dans le laboratoire souterrain LSM, est conçue pourrechercher 0nbb de 82Se. Sa technologie, qui tire parti du suivi des particules, est uniquedans le domaine des expériences de double désintégration bêta. La reconstruction de latopologie des événements est un outil puissant pour la suppression de fond naturel.Une partie de la thèse est consacrée à un travail expérimental. J’ai participé à la préparationde modules optiques, partie intégrante du calorimètre SuperNEMO. Les résultats de lapréparation et des tests de 520 modules optiques sont présentés dans la thèse. En outre, jeprésente les résultats de la cartographie complète des sources 207Bi effectuée à l’aide de pixeldétecteurs. Je présente également des mesures précises de leurs activités pour lesquellesj’ai utilisé des détecteurs HPGe. Ces sources 207Bi seront utilisées pour l’étalonnage ducalorimètre. L’étude a joué un rôle clé dans le choix des 42 sources qui participeront àl’étalonnage du démonstrateur.Une autre partie de la thèse contient des projets axés sur les simulations de Monte Carlo.Dans un premier temps, j’ai étudié la précision de reconstruction de vertex réalisable parun algorithme de reconstruction développé pour l’expérience SuperNEMO. La précision estévaluée à l’aide de différentes méthodes statistiques dans diverses conditions (champ magnétique,énergie des électrons, angles d’émission, etc.). Les facteurs influençant la précision,en fonction des résultats obtenus, sont discutés.En 2018, j’ai également effectué les simulations du blindage contre les neutrons. Différentsmatériaux de blindage d’épaisseurs différentes ont été (dans la simulation) exposés àun spectre de neutrons réaliste provenant du LSM et les flux situés derrière le blindage ont étéestimés. Il a été démontré que les parties du détecteur en fer devraient capturer la grande majoritédes neutrons passant le blindage. Je discute également un problème de simulation desrayonnements gamma de désexcitation après capture de neutrons thermiques, apparaissantdans les logiciels standard. Je propose un nouveau générateur étendu capable de résoudre leproblème et de démontrer le concept dans un exemple analytiquement résolu.Avec le standard 0nbb, SuperNEMO sera capable de rechercher des modes plus exotiquesde la décroissance. Dans cette thèse, je présente les limites de demi-vie possibles queSuperNEMO peut atteindre pour 0nbb avec l’émission d’un ou deux Majorons. L’étudeest réalisée en fonction de l’activité de contamination interne par les isotopes 208Tl et 214Bi.La période de mesure après laquelle SuperNEMO devrait pouvoir améliorer les limites dedemi-vie de NEMO-3 (au cas où la décroissance ne serait pas observée) est estimée
Presented thesis is composed of variety of projects which I performed within theconstruction phase of SuperNEMO demonstrator during the period 2015-2018.SuperNEMO experiment, located at underground laboratory LSM, is designed to searchfor 0nbb of 82Se. Its technology, which takes advantage of particle tracking, is unique inthe field of double beta decay experiments. Event topology reconstruction is powerful toolfor suppression of naturally-occurring background radiation.Part of the thesis is dedicated to experimental work. I took part in assembly and testingof optical modules - the integral part of SuperNEMO calorimeter. Results of tests afterassembly of 520 optical modules are presented in the thesis. Furthermore, I present resultsof complete mapping of 207Bi sources performed using pixel detectors. I also present precisemeasurements of their activities for which I used HPGe detectors. These 207Bi sources willbe used for calibration of the calorimeter. Study played a key role in choice of 42 sourceswhich were installed in the demonstrator and will take part in calibration of the demonstrator.Another part of the thesis contains projects focused on Monte Carlo simulations. In firstof them, I studied a vertex reconstruction precision achievable by reconstruction algorithmdeveloped for SuperNEMO experiment. Precision is evaluated using different statisticalmethods in variety of different conditions (magnetic field, energy of electrons, angles ofemission, etc.). Factors influencing the precision, based on the achieved results are discussed.In 2018, I also performed simulations of neutron shielding. Variety of shielding materialswith different thicknesses were (in the simulation) exposed to realistic neutron spectrumfrom LSM and the fluxes behind the shielding were estimated. It was shown that the partsof the detector made of Iron should be expected to capture vast majority of neutrons passingthe shielding. I also discuss a problem with simulation of deexcitation gamma radiation,emitted after thermal neutron capture, which arises in standard software packages. I proposednew extended generator capable to resolve the problem and demonstrate the conceptin analytically solvable example.Along with standard 0nbb, SuperNEMO will be capable of searching for more exoticmodes of the decay. In the thesis, I present possible half-life limits achievable by SuperNEMOfor 0nbb with emission of one or two Majorons. The study is performed asa function of activity of internal contamination from 208Tl and 214Bi isotopes. Measurementperiod after which SuperNEMO should be able to improve half-life limits of NEMO-3 (incase the decay would not be observed) are estimated
Predkladaná dizertaˇcná práca je zložená z projektov rôzneho charakteru, na ktorýchsom pracoval vo fáze výstavby SuperNEMO demonštrátora v období rokov 2015-2018.Experiment SuperNEMO, umiestnený v podzemnom laboratóriu LSM, je zameraný nahl’adanie 0nbb v 82Se. Experiment je založený na technológii rekonštrukcie dráh elektrónovvznikajúcich v rozpade. Tento prístup je jedineˇcný v oblasti 0nbb experimentov.Rekonštrukcia topológie udalostí je silným nástrojom na potlaˇcenie pozad’ovej aktivity vyskytujúcejsa v laboratóriu, ako aj v konštrukˇcných materiáloch detektora.Cˇ ast’ práce je venovaná experimentálnym úlohám. Zúcˇastnil som sa na konštrukciioptických modulov - súˇcasti hlavného kalorimetra. Práca obsahuje výsledky prípravy atestovania 520 optických modulov, a takisto výsledky kompletného mapovania kalibraˇcných207Bi zdrojov vykonaného za pomoci pixelových detektorov. V tejto ˇcasti sú odprezentovanéaj výsledky merania ich aktivít za pomoci HPGe detektorov. Štúdia zohrávala kl’úˇcovúúlohu pri výbere 42 zdrojov, ktoré boli nainštalované do prvého SuperNEMO modulu, dodemonštrátora, a budú použité na jeho energetickú kalibráciu.ˇ Dalšiu ˇcast’ práce tvoria úlohy zamerané na Monte Carlo simulácie. Prvým z nich,je štúdia presnosti rekonštrukcie vertexu dvojitého beta rozpadu. Rozpadové vertexy súrekonštruované tzv. CAT (Cellular Automaton Tracker) algoritmom vyvinutým pre experimentSuperNEMO. V štúdii sú porovnávané viaceré spôsoby definovania presnosti rekonštrukcie.Presnost’ je skúmaná v závislosti na magnetickom poli v detektore, energii elektrónov,uhlov ich emisie atd’. Na základe výsledkov sú v štúdii pomenované faktory, ktoré ovplyvˇnujú presnost’ rekonštrukcie vertexov dvojitého beta rozpadu.V roku 2018 som takisto vypracoval štúdie neutrónového tienenia. Oˇcakávané toky neutrónovza tienením boli odhadnuté pomocou Monte Carlo simulácie. Kvalita odtienenia neutrónovz realistickéh pozad’ového spektra, nameraného v LSM, bola skúmana pre tri rôznemateriály rôznych hrúbok. Výsledky ukázali, že neutrónový tok prechádzajúci tienenímbude primárne zachytávaný na komponentoch detektora zhotoveného zo železa. V rámcištúdie neutrónového tienenia je takisto diskutovaný problém simulácie deexcitaˇcných gamakaskád, produkovaných jadrami, po záchyte termálnych neutrónov. Štandardné simulaˇcnésoftvérové balíˇcky využívajú generátory gama kaskád nepostaˇcujúce pre potreby štúdie.Navrhol som nový generátor, ktorý je schopný tieto problémy vyriešit’. Funkˇcnost’ generátorabola preukázaná na príklade jednoduchého systému.Okrem štandardného 0nbb je SuperNEMO experiment schopný hl’adat’ aj jeho exotickejšieverzie. V práci sa nachádzajú odhady limitov ˇcasu polpremeny 0nbb s emisiou jednéhoalebo dvoch Majorónov, dosiahnutel’né SuperNEMO demonštrátorom. Tieto limity sú študovanév závislosti na aktivite izotopov 208Tl a 214Bi, ktoré kontaminujú zdrojovú 82Se fóliu.Bola odhadnuá doba merania, za ktorú bude SuperNEMO schopný vylepšit’ limity ˇcasu polpremeny,pre dva spomenuté rozpadové módy, dosiahnutých experimentom NEMO-3
APA, Harvard, Vancouver, ISO, and other styles
19

Bouhou, Boutayeb. "Recherche conjointe d'ondes gravitationnelles et de neutrino cosmiques de haute énergie avec les détecteurs VIRGO-LIGO et ANTARES." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00819985.

Full text
Abstract:
L'objectif de ce travail est la détection conjointe d'ondes gravitationnelles et de neutrinos cosmique de haute énergie à travers une approche multi-messagers. Les astronomies "neutrinos" et "ondes gravitationnelles" sont encore en phase de développement, mais elles sont appelées à jouer un rôle fondamental dans le futur. En effet, ces "messagers" peuvent parcourir de grandes distances grâce à leur faible interaction avec la matière (contrairement aux photons qui, à haute énergie, sont rapidement absorbés), sans être affectés par les champs magnétiques (contrairement aux rayons cosmiques chargés). Ils peuvent également s' échapper de milieux denses et fournir des informations sur les processus qui ont lieu au coeur des sources astrophysique (les photons s' échappent des couches périphériques des objets célestes). En un mot, ces astronomies sont susceptibles d'ouvrir une nouvelle fenêtre d'observation sur le cosmos. La collaboration ANTARES a construit en Méditerranée un télescope sous-marin de neutrino de haute énergie d'une surface de détection proche de 0.1 km². C'est le télescope le plus sensible pour la partie du ciel observée. Les interféromètres VIRGO et LIGO sont des détecteurs terrestres pour l'observation directe d'ondes gravitationnelles, instalés en Europe et aux états-Unis d'Amérique respectivement. Les instruments ANTARES, VIRGO et LIGO offrent une sensibilité inégalée dans la zone de recherche commune. Le premier chapitre de cette thèse introduit les motivations théoriques pour une recherche jointe d'ondes gravitationnelles et de neutrinos de haute énergies en développant les différents scénarios d'émission. Le deuxième et troisième chapitres sont consacrés à l'étude des techniques de détection avec les interféromètres VIRGO-LIGO et le télescope à neutrinos ANTARES. Les quatriéme et cinquième chapitres de ce travail présentent les résultats d'analyses de données combinées d'ANTARES, VIRGO et LIGO prises séparement pendant les années 2007 et 2009-2010.
APA, Harvard, Vancouver, ISO, and other styles
20

Jollet, Cécile. "Expérience NEMO3 : Étude de la stabilité des étalonnages en énergie et en temps du calorimètre : Mesure de la contribution des neutrons au bruit de fond de la double désintégration bêta sans émission de neutrino." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12551.

Full text
Abstract:
La mise en évidence de la décroissance double bêta sans émission de neutrino (ββ0ν), interdite par le Modèle Standard, permettrait de déterminer si le neutrino est une particule massive de Majorana (v=v̄ ). Pour cela, la collaboration NEMO a construit le détecteur NEMO3 qui sera sensible à une masse effective du neutrino d'environ 0,2 eV. Il est constitué d'une source émettrice ββ, d'une chambre à fils et d'un calorimètre formé de 1940 compteurs à scintillation permettant de mesurer l'énergie et le temps de vol des électrons. Pour une masse de 0,2 eV, le signal ββ0v correspondrait à la détection de quelques événements par an. Pour le mesurer, il est indispensable de connaître avec précision les étalonnages en énergie et en temps du calorimètre et de maîtriser toutes les sources de bruit de fond. La première partie de ce travail a consisté en l'étude du suivi quotidien des étalonnages du calorimètre par un système d'étalonnage relatif utilisant une lumière laser. Un programme permettant l'automatisation de l'étude des spectres laser et le calcul des coefficients de correction des étalonnages a été mis au point. Le comportement de l'ensemble du calorimètre a ainsi pu être caractérisé sur une durée de 23 jours. La deuxième partie de ce travail a porté sur l'étude de la contribution des neutrons et du rayonnement γ au bruit de fond de l'expérience. Les prises de données avec et sans le blindage de fer, avec et sans source de neutrons ont systématiquement été comparées avec les simulations. Le très bon accord entre l'expérience et les simulations nous a permis de conclure qu'avec les blindages γ et neutron et le champ magnétique, l'objectif fixé de 0 événement de bruit de fond d'origine externe à la source ββ sera atteint.
APA, Harvard, Vancouver, ISO, and other styles
21

Abadie, Lana. "Une approche "autonomic" pour la configuration d'une expérience PHE (Physique des Hautes Energies) appliquée à LHCb (Large Hadron Collider beauty)." Paris 6, 2006. http://www.theses.fr/2006PA066329.

Full text
Abstract:
Configurer une expérience PHE (Physique des Hautes Energies) devient de plus en plus complexe : le nombre de modules augmente et de nouvelles technologies sont utilisées. Anticiper les fautes d’un software ou d’un hardware nécessite un système de contrôle robuste. Les systèmes autonomes et dynamiques ont été introduits récemment dans le monde PHE afin d’améliorer la robustesse des expériences. L’architecture du système de contrôle de LHCb qui intègre des outils autonomes et dynamiques (autonomique) constitue une innovation. La contribution de cette thèse est l’implémentation d’une architecture 3 tiers « autonomic » permettant de configurer l’expérience LHCb, i. E. Un gigantesque réseau d’équipement. Chaque couche a été testée et validée. Le fonctionnement de l’architecture globale et son intégration dans le système de contrôle ont été validés avec succès.
APA, Harvard, Vancouver, ISO, and other styles
22

Quesne-Turin, Ambroise. "Etude de la réactivité de surface de matériaux d'électrode modèle de la famille des oxydes de lithium lamellaires : couplage expérience théorie." Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3049/document.

Full text
Abstract:
Les évolutions technologiques notamment dans la télécommunication ou le transport nécessitent des systèmes de stockage de l’énergie de plus en plus performants. Dans le cas des transports, l’utilisation d’énergie fossile est encore la plus rependu. Mais la raréfaction de ces ressources, et le réchauffement climatique en partie dû au gaz CO2 rejeté par la combustion de celle-ci a mené à une prise de conscience d’un besoin de transition énergétique. Le stockage de l’énergie sous forme électrochimique (batteries) permet de s’affranchir de ces défauts. L’un des matériaux d’électrode positive les plus utilisé pour les batteries Li-ion est le LiCoO2. Il est aujourd’hui remis en question, pour des raisons de performance, mais aussi de coût et de toxicité du cobalt. Une substitution du cobalt par d’autres métaux de transition a été testée avec succès. Le matériau LiNi1/3Co1/3Mn1/3O2 (NMC) a montré des performances électrochimiques supérieures au LiCoO2. Un autre matériau d’électrode positive en commercialisation, le matériau spinelle LiMn2O4, offre des capacités intéressantes.Les performances électrochimiques de ces matériaux peuvent être améliorées. La durée de vie de ces batteries est en partie limitée par des phénomènes aux interfaces électrode/électrolyte. Il est nécessaire d’étudier ces phénomènes encore mal compris. Lors de cette étude, nous nous intéresserons à la réactivité de surface d’un matériau modèle Li2MnO3 ; et des spinelles par une approche mêlant expérience et théorie. Notre stratégie opératoire est basée sur l’adsorption de sonde gazeuse suivit d’une étude multi-échelle sur des matériaux modèles couplant expérience et théorie.Une première étude porte sur la réactivité de surface des faces (001) des cristaux de Li2MnO3 par analyse XPS et Auger de l’adsorption de sonde SO2, ainsi que de de la modélisation de ces réactions d’adsorption. Puis une seconde étude s’intéresse au rôle du degré d’oxydation du manganèse dans la réactivité de surface avec une étude sur les spinelles. La dernière partie de la thèse porte sur l’impact des fautes d’empilement sur la réactivité de surface du matériau Li2MnO3 sous forme de poudre
LiCoO2 from layered lithium oxide family, is the most widely used Li-ion batteries positive electrode material. To support the global demand for more efficient batteries material, much research has been performed to explore alternative materials as mixed transition metal oxides LiNi1/3Mn1/3Co1/3O2 (NMC), with a larger capacity (140 mAh.g-1 for LiCoO2 vs. 180 mAh.g-1 for NMC) and a good cyclability. Its main advantages are its lower cost and toxicity, due to the lower content in Co, as well as its higher thermal stability in the delithiated state, i.e. in the charge state of the battery. The large content in Mn at the tetravalent state, which is stable in temperature, allows to stabilize the layered structure and to postpone at higher temperatures all the reactions involved during the thermal degradation of NMC, i.e. the cationic migrations, the oxygen loss and the associated reduction of the transition metal ions. A new series of layered oxide compounds Li1+xM1-xO2, called the Li-rich, was recently shown to be very attractive as delivering exceptional reversible capacities (over 250 mAh.g-1).For these overlithiated manganese-rich compounds the redox processes were shown to involve reversibly (at least in part) the transition metal and the oxygen anion. For all these layered oxides, there is a partial dissolution of the transition metals in the electrolyte, whose rate strongly depends on the cycling conditions (temperature, potential window …) and especially on the aging and storage conditions.Within this framework, a strategy combining adsorption of gaseous probe molecules (SO2) monitored by XPS and periodic DFT calculations has been developed. At an experimental level, this methodology allows the identification of the adsorption mode and the determination of the active sites concentration. This strategy has been used with LiCoO2 and NMC material, and has shown the surface reactivity of these materials. The present work uses this strategy for studying the role of surface manganese on reactivity surface. We propose to study the material LiMn2O4 and Li2MnO3, as reference materials for respectively manganese +III/+IV and manganese +IV, to see the role of surface manganese oxidation state on layered lithium oxide surface for surface reactivity. We showed that the surface reactivity depends on the crystallographic face orientation of the material, in good agreement with experimental and theoretical studies.The surface reactivity depends on the crystallographic face in the case of LiMn2O4 crystals. The calculations of adsorption on the most stable surface show different an evolution of surface reactions. These calculations have been combining with X-ray photoelectron spectroscopy study of LiMn2O4 materials
APA, Harvard, Vancouver, ISO, and other styles
23

Ferchaud, Fabien. "Etude des bilans d’eau, d’azote et de carbone dans des agrosystèmes dédiés à la production de biomasse en fonction des espèces et des pratiques culturales." Thesis, Paris, AgroParisTech, 2015. http://www.theses.fr/2015AGPT0037.

Full text
Abstract:
Les biocarburants de 2ème génération pourraient fournir une énergie renouvelable au secteur des transports et ainsi permettre de lutter contre le changement climatique. Toutefois, leurs bilans gaz à effet de serre, énergétiques et environnementaux seront probablement très dépendants des ressources utilisées. Les cultures lignocellulosiques candidates à la production de biocarburant 2G devront ainsi concilier forte productivité, faibles besoins en intrants et faibles impacts environnementaux. L’objectif de la thèse a été de quantifier les bilans d’eau, d’azote et de carbone à l’échelle de la parcelle, pour différentes cultures candidates et différentes pratiques culturales. Nous nous sommes appuyés sur le dispositif expérimental de long terme « Biomasse & Environnement », mis en place en 2006 à Estrées-Mons, en Picardie. Il compare deux cultures pérennes en C4 (Miscanthus × giganteus et switchgrass), deux cultures pluriannuelles fourragères en C3 (fétuque et luzerne) et deux cultures annuelles récoltées en plante entière (sorgho fibre et triticale). Il inclut deux niveaux de fertilisation et deux dates de récolte pour les cultures pérennes : récolte précoce (octobre) ou récolte tardive (février). Les mesures effectuées ont porté sur : i) la production de biomasse, ii) l’évolution des stocks d’eau du sol en continu pendant 7 ans, iii) la profondeur et la densité des systèmes racinaires, iv) le drainage et la concentration en nitrate de l’eau drainée, évalués avec le modèle STICS à partir des stocks d’eau et d’azote minéral du sol mesurés en milieu d’automne et fin d’hiver, v) les stocks de carbone organique du sol en 2006 et 2011-2012, vi) le devenir de l’engrais azoté, suivi par marquage isotopique 15N de l'engrais pendant 4 ou 5 années successives.Grâce à leur enracinement profond, les cultures pérennes et pluriannuelles ont prélevé davantage d’eau que les cultures annuelles, notamment en profondeur. Le drainage sous les cultures pluriannuelles a été plus faible que sous les cultures annuelles (64 contre 133 mm an-1 en moyenne sur 7 ans), malgré une production de biomasse équivalente. Il a été intermédiaire pour les cultures pérennes (56-137 mm an-1) et très fortement lié à la production (elle-même fonction de l’espèce et de la fertilisation azotée). La concentration en nitrate a varié de 2 à 23 mg l-1. Elle a été en général plus faible sous les cultures pérennes, sauf pour le miscanthus lors de la première année de mesure. Les stocks de carbone du sol ont augmenté fortement sous les cultures pluriannuelles (+0.93 t C ha-1 an-1) mais n'ont pas varié significativement pour les autres cultures. Le 15N retrouvé dans la biomasse récoltée a été plus faible pour les cultures pérennes, particulièrement lorsqu’elles sont récoltées tardivement, mais cela est compensé par une plus forte proportion de 15N dans leurs organes souterrains et dans le sol. Le 15N retrouvé dans le système sol-plante a été de 69% de l’azote apporté pour les cultures pérennes, 61% pour les cultures pluriannuelles et 56% pour les cultures annuelles, ce qui suggère que des pertes importantes ont eu lieu par volatilisation et dénitrification. Dans nos conditions pédoclimatiques, les cultures pérennes en C4 sont les plus intéressantes pour concilier forte production de biomasse, forte efficience d’utilisation de l’eau et de l’azote et faibles pertes d’azote vers l’hydrosphère et l’atmosphère. En revanche, seules les cultures pluriannuelles permettent de stocker du carbone à court terme
Second generation biofuels could provide renewable energy to the transportation sector while mitigating climate change. However, their greenhouse gas, energy and environmental balances will probably depend on the feedstock used for their production. Bioenergy crops that could be used for second generation biofuels will have to fulfil several requirements, including high productivity, low input requirements, and low environmental impacts. The objective of this work was to assess the water, N and C balances at the plot scale for various bioenergy crops with different management. The study is based on a long term field experiment, called “Biomass & Environment”, established at the INRA experimental station in Estrées-Mons, northern France. This experiment includes two perennial C4 crops (Miscanthus × giganteus and switchgrass), two semi-perennial forage C3 crops (fescue and alfalfa) and two annual C4/C3 crops (fibre sorghum and triticale). It compares two nitrogen treatments and two dates of harvest of perennial crops: early (October) or late harvest (February). Measurements have been carried out on: i) biomass production; ii) soil water stocks, monitored continuously during 7 years; iii) root depth and density; iv) drainage and nitrate concentration in drained water, assessed from soil water and mineral N content measurements (in mid-autumn and late winter) and using the STICS model; v) soil organic carbon (SOC) stocks in 2006 and 2011-2012; vi) the fate of 15N-labelled fertiliser applied during 4 or 5 successive years.Thanks to their deep rooting system, perennial and semi-perennial crops consumed more water than annual crops. The amount of drained water was lower under semi-perennial than annual crops (64 vs. 133 mm yr-1 average over 7 years), despite an equivalent biomass production. It was intermediate under perennial crops (56-137 mm yr-1) and negatively correlated to biomass production, itself depending on crop species and N rate. Nitrate concentration in drained water varied between 2 and 23 mg l-1. It was generally lower under perennial than other crops, except for miscanthus on the first year of measurement. SOC stocks increased markedly over time under semi-perennial crops (+0.93 t C ha-1 yr-1), whereas no significant change occurred under perennial and annual crops. The 15N recovery in the harvested biomass was lower for perennial than other crops, particularly when harvested late, but compensated by a higher 15N recovery in belowground organs and soil. The overall 15N recovery in the soil-plant system was 69% in perennials, 61% in semi-perennials and 56% in annual crops, suggesting that important fertiliser losses occurred through volatilisation and denitrification. In our pedo-climatic conditions, the C4 perennial crops performed best in terms of production, water and nitrogen use efficiency, and nitrogen losses towards the groundwater and the atmosphere. However, only semi-perennial crops yielded in SOC sequestration
APA, Harvard, Vancouver, ISO, and other styles
24

Brown, Jonathan. "Search for WH associated production in the lνbb final state using the DØ detector at the Tevatron." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00918068.

Full text
Abstract:
Le Modèle Standard est le cadre qui permet de décrire les interactions entre les particules et leur dynamique. Le mécanisme de Higgs est une solution pour introduire naturellement un terme de masse dans la description théorique de ce modèle. Après la rupture spontanée de la symétrie électrofaible, une nouvelle particule scalaire massive est introduite, le boson de Higgs. Comme celui-ci n'a pas encore été découvert, la recherche du boson de Higgs est effectué au Tevatron, qui est un collisionneur pp ̄ à une énergie au centre de masse de 1.96 TeV. Pour MH = 135 GeV, le mode de désintégration dominant est H → bb ̄. L'analyse présentée dans ce document est axée sur le domaine en masse 100 < MH < 150 GeV, dans le canal où le boson de Higgs est produit en association avec un boson W se désintègrant en un lepton chargé (électron ou muon) et un neutrino. L'étude de cet état final repose sur les informations recueillies auprès de toutes les parties du détecteur DØ. Un résultat basé sur 5.3 fb−1 de collisions récoltées durant le RunII du Tevatron est présenté ici. Afin d'augmenter la sensibilité au signal, l'analyse est séparée en sous-canaux en fonction de la saveur du lepton considéré, le nombre de jets dans l'état final, le nombre de jets identifiés comme provenant de quarks b et par périodes de prise de données. Après sélection des événements, une technique d'analyse multivariée est utilisée pour séparer les événements de type signal du bruit de fond physique et instrumental attendu. Comme un bon accord entre les données et simulation est observé, une limite supérieure observée (attendue) de 4.5 (4.8) est placée (pour MH = 115 GeV) sur le rapport entre la section efficace pp ̄ → W H multipliée par le rapport d'embranchement H → bb ̄ et la prédiction du Modèle Standard, à 95% de niveau de confiance. Alors que les dernières données du Tevatron sont en cours d'analyse, les perspectives de recherche au Tevatron sont exposées ici. Les améliorations futures pour la publication finale sur la recherche dans le canal WH → lνbb ̄ sont présentées. La masse invariante dijet étant la variable la plus discriminante, l'amélioration de la résolution du pic de masse est un enjeu important, ainsi que l'optimisation de l'utilisation des outils d'identification de jets de quarks b et du discriminant final. Une amélioration significative est obtenue au niveau de la limite.
APA, Harvard, Vancouver, ISO, and other styles
25

Astruc, Jean-Pierre. "Transfert d'électron entre atomes excités et molécules dans une expérience en jets croisés avec fluorescence résolue dans le temps." Paris 13, 1987. http://www.theses.fr/1987PA132020.

Full text
Abstract:
Etude experimentale avec résolution temporelle à l'échelle de la nanoseconde des valeurs absolues des séctions efficaces pour les transferts partiels d'énergie électronique entre Na(4d) et He, Ar, N(2), O(2), N(2)o et SF(6). Développement quantitatif de deux modèles à intermediaire ionique : réseau de multicroisement et diffusion résonnants atome excité-molecule. Emploi de l'approximation d'impact avec correction d'effet de coeur pour la transfert de moment orbital na(4d -> 4f)
APA, Harvard, Vancouver, ISO, and other styles
26

Bondu, Olivier. "Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00914252.

Full text
Abstract:
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.
APA, Harvard, Vancouver, ISO, and other styles
27

Martin, Julie-Fiona. "Coulex fission of ²³⁴U, ²³⁵U, ²³⁷Np and ²³⁸Np studied within the SOFIA experimental program." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112315/document.

Full text
Abstract:
SOFIA (Studies On FIssion with Aladin - Études de fission avec ALADIN) est un projet expérimental qui se propose de mesurer systématiquement les rendements isotopiques de fission, ainsi que l'énergie cinétique totale des fragments, pour une large gamme de noyaux fissionnants. Le travail de thèse présenté ici prend part au projet SOFIA, et a pour objet l'étude de la fission de noyaux dans la région des actinides : ²³⁴U, ²³⁵U, ²³⁷Np et ²³⁸Np.L'expérience SOFIA est menée au GSI, un accélérateur d'ions lourds situé à Darmstadt en Allemagne. Cette installation fournit un faisceau relativiste et intense d'uranium-238. Par une réaction de fragmentation de ce faisceau primaire, il est créé un faisceau secondaire contenant une large variété d'ions, dont, pour certains, la fission va être étudiée. Les ions de ce faisceau secondaire sont triés et identifiés dans le séparateur de fragments FRS, un spectromètre de recul de haute résolution qui est réglé pour sélectionner les ions d'intérêt.Ensuite, les ions fissiles sélectionnés continuent leur vol jusqu'à la Cave-C, une aire expérimentale où l'expérience de fission elle-même a lieu. À l'entrée de la cave, l'ion du faisceau secondaire est excité par interaction Coulombienne alors qu'il traverse une cible; les voies de dé-excitation possibles incluent la fission de basse énergie. Lors d'une fission, les deux fragments sont émis dans un cône étroit dans le référentiel du laboratoire, dû à l'impulsion relativiste qui leur est transmise par le système fissionnant. Un spectromètre de recul complet a été développé par la collaboration SOFIA autour du dipôle existant ALADIN. L'identification des fragments est réalisée par des mesures de perte d'énergie, de temps de vol et de déviation dans l'aimant. Les deux fragments de fission sont identifiés simultanément et complètement (en masse et en charge). Ce document présente l'analyse menée pour (1) l'identification du système fissionnant, (2) l'identification des deux fragments de fission - évènements par évènements -, et (3) l'extraction des observables de fission : rendements, énergie cinétique totale, multiplicité total en neutrons prompts. Ces résultats concernant les actinides sont discutés, et l'ensemble des données extraites est fourni
SOFIA (Studies On FIssion with Aladin) is an experimental project which aims at systematically measuring the fission fragments' isotopic yields as well as their total kinetic energy, for a wide variety of fissioning nuclei. The PhD work presented in this dissertation takes part in the SOFIA project, and covers the fission of nuclei in the region of the actinides : ²³⁴U, ²³⁵U, ²³⁷Np and ²³⁸Np.The experiment is led at the heavy-ion accelerator GSI in Darmstadt, Germany. This facility provides intense relativistic primary beam of 238U. A fragmentation reaction of the primary beam permits to create a secondary beam of radioactive ions, some of which the fission is studied. The ions of the secondary beam are sorted and identified through the FR-S (FRagment Separator), a high resolution recoil spectrometer which is tuned to select the ions of interest.The selected - fissile - ions then fly further to Cave-C, an experimental area where the fission experiment itself takes place. At the entrance of the cave, the secondary beam is excited by Coulomb interaction when flying through an target; the de-excitation process involves low-energy fission. Both fission fragments fly forward in the laboratory frame, due to the relativistic boost inferred from the fissioning nucleus.A complete recoil spectrometer has been designed and built by the SOFIA collaboration in the path of the fission fragments, around the existing ALADIN magnet. The identification of the fragments is performed by means of energy loss, time of flight and deviation in the magnet measurements. Both fission fragments are fully (in mass and charge) and simultaneously identified.This document reports on the analysis performed for (1) the identification of the fissioning system, (2) the identification of both fission fragments, on an event-by-event basis, and (3) the extraction of fission observables: yields, TKE, total prompt neutron multiplicity. These results, concerning the actinides, are discussed, and the set of data extracted is provided
APA, Harvard, Vancouver, ISO, and other styles
28

Bondu, Olivier. "Étude des désintégrations radiatives Z →μμγ et recherches du boson de Higgs dans le canal H→γγ dans l’expérience CMS au LHC (CERN)." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10198/document.

Full text
Abstract:
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée
The Large Hadron Collider (LHC) at CERN (European Organisation for Nuclear Research) has been in operation since 2009 at the border between France and Switzerland. This particle accelerator has provided a significant quantity of proton-proton collisions, at center of mass energies of 7 TeV (2010 and 2011) and 8 TeV (since April 2012). One of the purposes of the Compact Muon Solenoid (CMS) experiment, which records and analyses those collisions, is the search for Higgs bosons. In the Standard Model, this particle would be the quantum of the Higgs field, thought to explain the electroweak symmetry-breaking mechanism. One of the most sensitive channels for the search for a light Higgs boson (i.e. for masses between 90 GeV=c2 and 150 GeV=c2) at the LHC is through its decay into two photons. Indeed, the production of two highly energetic and isolated photons in the final state is a clean signal in hadronic collisions, despite the small branching ratio. Moreover, at these masses, the width of the reconstructed invariant mass peak is dominated by the detector resolution. Hence, a precise understanding of the photon object as reconstructed by the experiment is required. The first part of the work presented here is the study of radiative decays Z$^0 \rightarrow \mu\mu\gamma$ these decays are the only Standard Model source of high purity certified photons, for which the transverse momentum of the photon is relatively similar to the one of the photons coming from a Higgs boson decay. The study of these decays enables the determination of the differential photon energy scale in the 7 TeV data. These decays have also been used in the 8 TeV data as a validation tool of photon cluster shape variables in the simulation, and also as a way to determine the electron rejection criteria efficiency. The second part of the work concerns the search for a Higgs boson decaying into two photons. This search is done in several event classes in order to increase the sensitivity of the analysis, the study of the class separation procedure is presented. Finally, a benchmark study for the search for a Higgs boson decaying into two photons via vector-like top-partner decays at 14 TeV has been performed
APA, Harvard, Vancouver, ISO, and other styles
29

Chasserat, Julien. "Recherche de leptoquarks de troisième génération dans l’expérience CMS au LHC." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10033/document.

Full text
Abstract:
L'expérience CMS (Compact Muon Solenoid), construite sur l'anneau du LHC (Large Hadron Collider) a enregistré une quantité colossale de données provenant des collisions proton-proton de 2009 à 2012 à des énergies dans le centre de masse de 7 TeVet 8 TeV. Cette expérience est consacrée aux mesures de précision des paramètres du modèle standard, à l'étude du boson de Higgs ainsi qu'à la mise à l'épreuve de théories au-delà du modèle standard. Un certain nombre de ces théories prévoient l'existence de particules appelées leptoquarks, de nouveaux bosons se couplant à la fois aux leptons et au quarks. La première partie de cette thèse est consacrée à la présentation du Modèle Standard des particules et à une introduction théorique aux leptoquarks. La seconde présente brièvement le fonctionnement du LHC et de l'expérience CMS. La troisième partie est dédiée au travail effectué dans le groupe générateur de CMS au cours de la première année de ma thèse. Cette mission consistait principalement à générer et à valider massivement des évènements Monte-Carlo avec le logiciel Madgraph pour l'ensemble de la collaboration CMS. Enfin, la dernière partie porte sur l'analyse de données et la recherche de paires de leptoquarks scalaires de troisième génération. Trois canaux de désintégration des LQ sont envisagés : en quark top et lepton tau, en quark top et neutrino et enfin en quark top et muon. Cette étude est basée sur l'ensemble des données enregistrées par l 'expérience CMS au cours de l'année 2012. Ce qui représente une luminosité intégrée totale de 19,7 fb. Différentes sélections basées sur au moins un lepton et de nombreux jets sont examinées afin de définir les régions présentant les meilleures efficacités de signal par rapport au fond du Modèle Standard. Enfin, une optimisation des coupures sur des variables très discriminantes est réalisée afin d'obtenir les meilleures limites à 95% de confiance sur les sections efficaces de production des leptoquarks. Aucun excès significatif par rapport aux prévisions du modèle standard n'a pu être mis en évidence ce qui a permis de poser des limites sur les sections efficaces de production des leptoquarks. Les leptoquarks de troisième génération sont exclus jusqu'à des masses de 320 GeV à 95 % de niveau de confiance pour le canal top tau, jusqu'à 240 GeV pour le canal top nu et jusqu'à 910 GeV pour le canal top mu
Installed on the LHC (Large Hadron Collider) ring, the CMS experiment (Compact Muon Solenoid) recorded a great amount of proton-proton collisions data from 2009 to 2012 at center of mass energies of 7 TeV and 8 TeV. This experiment was designed for precise measurements of the Standard Model parameters, for Higgs boson studies and to test theories beyond the standard model. Some of these theories foresee the existence of leptoquarks which are new bosons with couplings to both leptons and quarks. The first part of this thesis is dedicated to a presentation of the Standard Model and to a leptoquarks theoretical introducion. The second one briefly explains how the LHC and the CMS experiment work. The third part details the work accomplished during the first year of my thesis in the CMS generator group. Finaly, the last one deals with data analysis and the search of third generation leptoquarks pair production. Three LQ desintegration channels are investigated : to a top quark and a tau lepton, to a top quark and a neutrino and at last to a top quark and a muon. This study is based on the full integrated luminosity recorded during 2012, namely 19.7 fb. Various selections requiring at least one lepton and several jets are scrutinized in order to identify the regions with best signal efficiency regarding to Standard model backgrounds. Finally, a selection optimisation on discriminative variables is performed to extract the best 95 No significative excess with respect to Standard Model expectations was found. Thus we were able to set limits on the leptoquarks pair production cross sections. Third generation leptoquarks with masses below 320 GeV, 240 GeV and 910 GeV are excluded for the top tau, top nu and top mu channels, respectively
APA, Harvard, Vancouver, ISO, and other styles
30

Tannoury, N. "Calibration des algorithmes d'identification des jets issus de quarks b et mesure de la section efficace différentielle de production de paires de quarks top-antitop en fonction de la masse et de la rapidité du système top-antitopdans les collisions p-p à une énergie au centre de masse de 7 TeV auprès de l'expérience ATLAS au LHC." Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00785360.

Full text
Abstract:
ATLAS, LHC, quark b, quark top, étiquetage des jets issus de quark b, calibration des algorithmes d'étiquetage des jets issus de quark b, quarks top-antitop, section efficace, section efficace différentielle des paires top-antitop, masse du top, rapidité du top, nouvelle physique.
APA, Harvard, Vancouver, ISO, and other styles
31

Laudrain, Antoine. "Layer Intercalibration of the ATLAS Electromagnetic Calorimeter and CP-odd Higgs Boson Couplings Measurements in the Four-Lepton Decay Channel with Run 2 Data of the LHC." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS341.

Full text
Abstract:
Après la découverte du boson de Higgs en 2012 au LHC, l'intérêt s'est porté sur l'étude de ses propriétés pour vérifier le Modèle Standard et pour sonder la nouvelle physique. L'une de ses propriétés fondamentales est sa spin-parité (CP), dont le Modèle Standard prédit la valeur 0+. Les analyses menées sur les données récoltées au Run 1 du LHC ont rejeté toutes les hypothèses d'état pur de spin-parité autre que cette valeur. Cependant des états mixtes de CP sont toujours possibles, ce qui indiquerait une violation de symmétrie CP dans le secteur du Higgs.La première partie de cette thèse se concentre sur la calibration du calorimètre électromagnétique d'ATLAS permettant d'atteindre une résolution de l'ordre du pour mille sur l'énergie des électrons et photons, primordiaux dans les analyses du boson de Higgs. Une des étapes est l'inter-calibration des couches du calorimètre électromagnétique, corrigeant des effets résiduels de calibration électronique et de diaphonie (cross-talk). La méthode établie au Run 1 a montré ses limites devant les niveaux d'empilement mesurés au Run 2, et une nouvelle analyse a été alors dévéloppée, assurant le contrôle précis des incertitudes systématiques.La deuxième partie de cette thèse porte sur la mesure des couplages CP-impairs du boson de Higgs aux boson vecteurs, étudié dans le canal de désintégration du boson de Higgs en quatre leptons. Malgré une faible statistique, ce canal offre une signature propre et un rapport signal sur bruit de plus de deux, permettant l'analyse précise des propriétés du boson de Higgs. Le mode de production par fusion de bosons vecteurs offre la meilleure sensibilité aux effets de CP grâce à la présence de deux jets dans l'état final. La pollution venant du mode de production par fusion de gluon avec des jets additionels est réduite grâce à l'utilisation de réseaux neuronaux. Pour distinguer de manière univoque les effets CP-impair d'éventuels effets CP-pair encore inconnus, une nouvelle variable est construite dont l'asymétrie de forme dépend uniquement d'effets CP-impairs. Composée d'éléments de matrice, cette variable utilise les informations cinématiques du boson de Higgs et des jets de manière maximale. Les résultats sont interprétés en termes de théorie effective, et la sensibilité statistique à 68% de confiance sur le coefficient de Wilson tCzz est estimée à [-0.80, 0.80]
After the Higgs boson discovery at the LHC in 2012, interest turned to Higgs boson property measurements to refine the tests of the Standard Model and probe for new physics. One of its key properties is its spin-parity (CP), predicted to be 0+ in the Standard Model. Analyses of data collected during the Run 1 of the LHC rejected all pure spin-parity (CP) state other than 0+. However mixed CP states are still possible, and would indicate CP violation in the Higgs sector.The first part of this thesis focuses on the ATLAS electromagnetic calorimeter calibration, needed to reach a permil level on electron and photon energy resolution which are of prime importance for Higgs boson studies. One step of the calibration sequence consists of the layer intercalibration of the electromagnetic calorimeter, needed to correct residual electronics miscalibration and cross-talk effects. The Run 1 method has proven to be unreliable for the pileup levels in Run 2 and a new method was developed, ensuring a precise control on the systematic uncertainties.The second part of this thesis puts emphasis on the Higgs boson to vector boson CP-odd couplings, with the Higgs boson decaying to four leptons. This channel, despite low statistics, provides a clean signature and a signal-to-noise ratio over two, allowing for a precise determination of the Higgs boson properties. The vector boson fusion production channel offers the best sensitivity to CP effects thanks to its two characteristic tagging jets in the final state. The contamination from the gluon fusion production mode with additional jets is reduced using neural networks. To unambiguously distinguish yet unknown CP-even from possible CP-odd effects, a variable whose shape asymmetry only depends on CP-odd effects is built. This observable is based on the matrix element computation, maximally using the kinematic information available from Higgs boson and associated jets. Results are interpreted in a context of effective field theory, and the statistical precision on the tCzz Wilson coefficient is estimated to [-0.80, 0.80] at the 68% confidence level
APA, Harvard, Vancouver, ISO, and other styles
32

Rustige, Lennart. "First evidence of standard model pp --> tttt production and performance studies of the ATLAS tile calorimeter for HL-LHC." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC046.

Full text
Abstract:
Deux analyses dans le domaine de la physique des particules sont présentées dans ce document. Premièrement, des études sur les performances de la reconstruction des muons à l’aide des informations calorimétriques dans les conditions de la phase HL-LHC du détecteur ATLAS.. Deuxièmement, la recherche de la production simultanée de quatre quarks top en utilisant l’ensemble complet des données Run-II enregistrées par ATLAS. Cet ensemble des données correspond à une luminosité intégrée de L = 139 fb−1 des collisions protons-protons à un énergie dans le centre de masse de √s = 13 TeV. La performance de la reconstruction des muons est sondée pour différentes conditions de prise de données, en particulier avec des nombres de collisions parasites importants tels qu’attendu pour la phase du HL-LHC. La performance est également sondé et en vue de différents scénarios des bruits qui émulent la perte de résolution énergétique et la détérioration de l’acceptation du détecteur due au vieillissement et à l’irradiation des composants du détecteur. Cette étude est menée pour tester les scénarios proposés de mise à jour du détecteur avant leur mise en œuvre. La recherche de la production de quatre quark top, prédite par le modèle standard (SM), présentée ici, se concentre sur les modes de désintégration avec deux leptons de même signe ou plusieurs leptons dans l’état final. La recherche de ce processus est, entre autres facteurs, motivée par les très grandes énergies impliquées et par le fait qu’il est potentiellement sur le point d’être découvert avec l’ensemble des données actuellement disponibles. Les résultats finaux sont obtenus dans l’ajustement d’une fonction de vraisemblance profilée impliquant le résultat d’un boosted decision tree, entraîné à discriminer entre le signal et les bruits de fond. L’ajustement donne une section efficace de [1], ce qui correspond à une significance observée (attendue) de Z = 4,3 (Z = 2,4). Cela correspond à la première évidence de ce processus. Le résultat obtenu est compatible avec la prédiction du SM [2] à 1,7 écart-type près. Après la première évidence, la possibilité de reconstruire le système des quatre quark top en utilisant une approche de vraisemblance cinématique est explorée. Les études sont effectuées dans l’état final avec un seul lepton avec l’outil KLFitter [3] donnant une efficacité de correspondance correcte des quatre quarks top de ε = 33 ± 4 % dans des conditions optimales. [1] ATLAS Collaboration. ‘Evidence for tt̄tt̄ production in the multilepton final state in proton–proton collisions at √s = 13 TeV with the ATLAS detector’. Eur. Phys. J. C 80 (2020) [2] Rikkert Frederix et al. ‘Large NLO corrections in tt̄W ± and tt̄tt̄ hadroproduction from supposedly subleading EW contributions’. JHEP 02 (2018) [3] Johannes Erdmann et al. ‘A likelihood-based reconstruction algorithm for top- quark pairs and the KLFitter framework’. Nucl. Instrum. Meth. A 748 (2014)
Two analyses in the field of particle physics are presented in this document. First, studies on the performance of the reconstruction of muons using calorimeter information under the conditions of the High-Luminosity Large-Hadron-Collider (HL-LHC) phase of the ATLAS detector. Second, the search for the Standard Model (SM) simultaneous production of four top quarks using the full Run-II data set recorded by ATLAS. This data set corresponds to an integrated luminosity of L = 139 fb−1 of proton–proton collisions at a centre of mass energy of √s = 13 TeV. Here, the performance of the reconstruction of muons is probed for different pile-up scenarios, as those expected for the HL-LHC phase, and in light of different noise scenarios that emulate the loss of energy resolution and deterioration of detector acceptance due to ageing and irradiation of detector components. This study is conducted to test proposed detector upgrade scenarios before their implementation. The search for SM like four top quark production presented here, focuses on the decay modes with two same sign or more leptons in the final state. The search for this process is, among other factors, motivated by the very large energies involved and by the fact that it is likely on the verge of being discovered with currently available data sets. The final results are obtained in a profile likelihood fit involving the outcome of a boosted decision tree trained to discriminate between signal and background. The fit results in a production cross section of [1], which corresponds to an observed (expected) significance of Z = 4.3 (Z = 2.4). This represents the first evidence for this process. The obtained result is compatible with the SM prediction [2] within 1.7 standard deviations.Following first evidence, the possibility of reconstructing the four top quark system using a kinematic likelihood approach is developed and tested. These developments are performed with the KLFitter [3] tool set and yield an efficiency of correctly matching all four top quarks of ε = 33 ± 4% under optimal conditions in the single lepton final state. [1] ATLAS Collaboration. ‘Evidence for tt̄tt̄ production in the multilepton final state in proton– proton collisions at √s = 13 TeV with the ATLAS detector’. Eur. Phys. J. C 80 (2020) [2] Rikkert Frederix et al. ‘Large NLO corrections in tt̄W ± and tt̄tt̄ hadroproduction from supposedly subleading EW contributions’. JHEP 02 (2018) [3] Johannes Erdmann et al. ‘A likelihood-based reconstruction algorithm for top- quark pairs and the KLFitter framework’. Nucl. Instrum. Meth. A 748 (2014)
APA, Harvard, Vancouver, ISO, and other styles
33

Delgove, David. "Mesure des propriétés du boson de Higgs avec l'expérience ATLAS au LHC." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS316/document.

Full text
Abstract:
Dans cette thèse, je présente ma contribution à l'étude des propriétés du boson de Higgs. Mon travail a consisté à combiner les différentes analyses de recherche du boson de Higgs prévu par le modèle standard pour en extraire une mesure des taux de productions, de désintégrations et des couplages. Par exemple, le taux de production inclusif du boson de Higgs mesuré avec le détecteur ATLAS a été mesuré. Ces mesures peuvent également s'interpréter dans le contexte de modèle au-delà du modèle standard telle que les modèles composites ou les modèles de type MSSM avec le hMSSM. J'ai également participé à l'étude des performances d'un algorithme de particle flow dans le cadre de la recontruction de jets possédant un grand rayon. Mes contributions aux analyses de recherche d'un boson de Higgs pseudo-scalaire se désintégrant en un boson Z et un boson de Higgs et la recherche du boson produit en association avec un boson Z et se désintégrant en une paire de quarks b sont également montrées
In this thesis, I show my contribution to the study of the properties of the Higgs boson. My work has consisted in combining the different searches of the Standard Model Higgs boson to measure the rate of production, decay and the couplings. For example, the overall rate of production measured with the ATLAS dectector has been measured. These measurements can also be interpreted in the constext of models beyond the standard model such that composite models or models inspired from the MSSM (hMSSM). I have also participated to the studies of the performance of a particle flow algorithm to reconstruct the jet with a large radius. My contribution to the search of a pseudoscalar Higgs boson decaying into a Z boson and a Higgs boson and the search of the standard model Higgs boson produced in association with a Z boson and decaying into a pair of b quarks are also shown
APA, Harvard, Vancouver, ISO, and other styles
34

Wei, Xiaomin. "Study and improvement of radiation hard monolithic active pixel sensors of charged particle tracking." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00953382.

Full text
Abstract:
Monolithic Active Pixel Sensors (MAPS) are good candidates to be used in High Energy Physics (HEP) experiments for charged particle detection. In the HEP applications, MAPS chips are placed very close to the interaction point and are directly exposed to harsh environmental radiation. This thesis focuses on the study and improvement of the MAPS radiation hardness. The main radiation effects and the research progress of MAPS are studied firstly. During the study, the SRAM IP cores built in MAPS are found limiting the radiation hardness of the whole MAPS chips. Consequently, in order to improve the radiation hardness of MAPS, three radiation hard memories are designed and evaluated for the HEP experiments. In order to replace the SRAM IP cores, a radiation hard SRAM is developed on a very limited area. For smaller feature size processes, in which the single event upset (SEU) effects get significant, a radiation hard SRAM with enhanced SEU tolerance is implemented by an error detection and correction algorithm and a bit-interleaving storage. In order to obtain higher radiation tolerance and higher circuitry density, a dual-port memory with an original 2-transistor cell is developed and evaluated for future MAPS chips. Finally, the radiation hardness of the MAPS chips using new available processes is studied, and the future works are prospected.
APA, Harvard, Vancouver, ISO, and other styles
35

Peaucelle, Christophe. "La problématique de l'évolution des moments d'une densité de particules soumises à des forces non linéaires." Phd thesis, Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00001153.

Full text
Abstract:
L'utilisation des accélérateurs linéaires de forte puissance dans différents projets (production de neutrons par spallation, réacteurs hybrides) nous a amené à se pencher sur les problèmes de la dynamique de faisceaux de haute intensité. Dans le cas de faisceaux intenses, les particules sont soumises à des forces non linéaires, principalement dues à l'effet de charge d'espace. Afin de disposer d'outils à la fois moins lourds et plus réalistes que les méthodes classiques de simulation (interaction particule-particule, modèle coeur-particule), la description de l'évolution d'une distribution de particules à partir de ses paramètres statistiques, ses moments, a donc été envisagée. Nous présentons donc dans une première partie une analyse détaillée de la problématique, menée dans un cadre simplifié mais non limitatif : tout d'abord, nous développons un formalisme original basé sur les propriétés fines des polygones orthogonaux permettant l'étude des moments d'une densité en une dimension. De cette analyse, nous voyons que l'on peut extraire, d'un nombre fini de moments, un certain nombre d'informations concernant la densité. En particulier, il en découle la notion fondamentale d'enveloppe convexe définissant le domaine d'existence de cette densité. Ceci permet de mieux comprendre la signification des moments. La généralisation de cette description en deux dimensions permet d'estimer avec une bonne précision où sont localisées les particules dans cet espace des phases. Enfin, nous abordons les difficultés rencontrées au cours de cette étude, fixant ainsi les limites de cette méthode. La deuxième partie de cette thèse, plus expérimentale, présente les mesures de faisceaulogie effectuées sur l'accélérateur GENEPI (GEnérateur de NEutrons Pulsé Intense) dans le cadre de l'étude des systèmes hybrides. Elles permettent, entre autres, la calibration du faisceau et la validation des codes de calculs nécessaires à la conception de la machine.
APA, Harvard, Vancouver, ISO, and other styles
36

Dumitriu, Ana Elena. "Study of the Higgs production in association with tt quarks." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0295/document.

Full text
Abstract:
Le travail scientifique présenté dans cette thèse s’appuie sur des collisions proton proton, à 13 TeV dans le centre de masse, produite par le grand collisionneur de Hadron (LHC) et enregistrées entre 2015 et 2017 par le détecteur ATLAS. Après une brève introduction sur le programme de physique du LHC, le premier chapitre donne un aperçu complet du contexte et des motivations théorique. Ensuite une description complète du détecteur ATLAS et plus généralement de l’ensemble expérimental est donnée. Le troisième chapitre traite d’une des mesures des performances du calorimètre électromagnétique ATLAS, à savoir l’étude des efficacités identification électronique à l’aide de W se désintégrant en électrons et neutrinos.Dans les chapitres suivants, le coeur de cette thèse, la recherche et l’étude de la production associée de boson de Higgs avec une paire de quark top, appelée production ttH, est traitée dans le schéma du modèle Standard et au-delà. L’observation de la production ttH avec le détecteur ATLAS a été récemment annoncée en 2018 et représente une étape importante pour le domaine de la physique des hautes énergies. Afin d’élargir le spectre de cette analyse tth au-delà du SM, cet état final du canal 4L a aussi été étudié dans le cadre de la recherche de bosons de Higgs doublement chargés se désintégrant en W$^{\pm}$W$^{\pm}$, H$^{\pm \pm} \rightarrow $ W$^{\pm}$W$^{\pm}$. En conclusions, les perspectives sur les futurs résultats scientifiques dans le modèle Standard (SM) ainsi que au-delà de SM (BSM) qui pourraient être atteint en utilisant les statistiques complètes des Run1 et Run2 combinés sont donnés
The scientific work presented in this thesis is based on proton proton collision produced, at 13 TeV in the center of mass, created by the Large Hadron Collider (LHC) and recorded between 2015 and 2017 by the ATLAS detector.After a short introduction on the physics program at LHC, the first chapter gives a comprehensive overview of the theoretical context and motivation. Then a complete description of the ATLAS detector and more generally the experimental setup is given with a highlight on the different physics objects used in this research.The third chapter is dealing with a measure of the performances of the ATLAS electromagnetic calorimeter, namely the study of the electron identification efficiencies using W decaying into electrons and neutrinos events.In the following chapters, the core of this thesis work, the search and study of the associated Higgs boson production with top quark pair, so-called ttH production, within the Standard Model schema and beyond is treated. The observation for ttH production with the ATLAS detector recently announced in 2018 represents a significant milestone for the High-Energy Physics field. In order to broaden the spectrum of this ttH analysis beyond the SM, this 4L channel final states was also studied in the context of the search for doubly charged Higgs boson decaying into W±W±, H±±→W±W±.In conclusions, future prospects in Standard Model (SM) as well as Beyond SM (BSM) scientific results that could be reached using the full Run1 and Run2 combined available statistics are given
APA, Harvard, Vancouver, ISO, and other styles
37

Chanon, Nicolas. "Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN)." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00598989.

Full text
Abstract:
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4$\ll (\ll= e\ mu)$ a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> $\gamma\gamma$. Un nouvel outil de discrimination $\gamma/\pi^i0$ à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des $\pi^0$ produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus $\gamma$+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus $\gamma\gamma+X$ est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> $\gamma\gamma$ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H $\gamma\gamma$ processus au NNLO et pour la première fois pour le processus $\gamma\gamma$ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination $\gamma/\pi^0$ sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->$\gamma\gamma$ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé.
APA, Harvard, Vancouver, ISO, and other styles
38

Helary, Louis. "Recherche de technicouleur avec l'expérience ATLAS. Développement d'outils et étude des performances du calorimètre à argon liquide." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00673341.

Full text
Abstract:
En 2011, le LHC a fourni près de 5 fb−1 de données aux expériences. Ces données ont été utilisées pour comprendre plus avant les détecteurs, leurs performances et effectuer des analyses de physique. Cette thèse est organisée en cinq chapitres. Le premier est une introduction théorique au Modèle Standard et à une de ses extensions possible : la TechniCouleur. Le deuxième chapitre donne un bref aperçu de l'accélérateur LHC et de l'expérience ATLAS. Dans le troisième chapitre, l'un des principaux sous-système de l'expérience ATLAS est présenté : le calorimètre à argon liquide. L'algorithme de contrôle de l'acquisition et de la qualité des données que j'ai développé au cours de ma thèse est également présenté. Le quatrième chapitre présente une étude des performances de la reconstruction des jets basée sur l'ensemble des données acquises en 2010. Cette étude a montré qu'en 2010, la résolution en énergie des jets dans le Monte-Carlo a été sous-estimée d'un facteur relatif d'environ 10% par rapport aux données. Cette étude a été ensuite reconduite pour évaluer l'impact de la réduction de la HV dans des zones du calorimètre sur la résolution en énergie des jets. Cet impact a été jugée négligeable. Pour des jets produits avec une rapidité |y| < 0.8, l'augmentation de la résolution en énergie due à la réduction de la HV, est évaluée à moins de 3 % pour un jet de pT = 30 GeV jet, et moins de 0,1 % pour un jet de pT = 500 GeV. Enfin, le dernier chapitre de cette thèse présente une étude de l'état final Wgamma. La contribution des différents processus du MS participant à cet état final a été estimée à partir du Monte Carlo et des données. Une recherche de résonances étroites a ensuite été effectuée en utilisant la distribution M(W,gamma) dans un intervalle [220,440] GeV, mais aucun écart significatif des prédictions du MS n'a été observé. Cette étude a permis de fixer des limites sur la production de particules TC correspondant à M(a_{T}) > 265 GeV ou M(\rho_{T}) > 243 GeV.
APA, Harvard, Vancouver, ISO, and other styles
39

Déléage, Nicolas. "Étude des désintégrations B⁰(s)→D̅⁰K⁺K⁻ et des sous-modes B⁰(s)→D̅⁽*⁾⁰φ avec le détecteur LHCb." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAY073.

Full text
Abstract:
L'expérience LHCb a été conçue pour étudier la physique des saveurs, dont entre autre la violation de CP, sur le collisioneur proton-proton LHC. La première phase de fonctionnement du LHC a durée de 2011 à 2012, ce qui a permis à LHCb de collecter 3.19~fb⁻¹ de données à une énergie dans le centre de masse des collisions de √s = 7~TeV et √s = 8~TeV. L'analyse présentée dans cette thèse est basée sur l'ensemble des données collectées par LHCb lors de la première phase de fonctionnement (2011-2012).Le mécanisme de Cabibbo-Kobayashi-Maskawa (CKM) est le mécanisme décrivant la violation de CP dans le cadre du Modèle Standard.Les expériences de la décennie précédente, dédiées à la physique des saveurs, BaBar et Belle, ont permis de démontrer le fonctionnement du mécanisme CKM et de démontrer qu'il est majoritairement Standard.`A présent LHCb a pour objectif de mesurer avec précision les paramètres de ce mécanisme, ce qui constitue des points de références du Modèle Standard, pour en parallèle rechercher de manière indirecte de la Nouvelle Physique en recherchant des déviations à ces points de références du Modèle Standard.Les travaux réalisés lors de cette thèse s'inscrivent dans le cadre du premier axe de recherche: réaliser des mesures de précision des paramètres du mécanisme CKM pour contraindre le Modèle Standard. Dans cette thèse nous réalisons la mesure la plus précise à l'heure actuelle du rapport d'embranchement de la désintégration B⁰(s)→D̅⁰K⁺K⁻, la première observation des modes B⁰(s)→D̅⁰K⁺K⁻ et B⁰(s)→D̅⁽*⁾⁰φ avec mesure de la polarisation de ce dernier, la confirmation de la mesure du rapport d'embranchement de la désintégration B⁰(s)→D̅⁽*⁾⁰φ, ainsi que des limites supérieures sur le rapport d'embranchement de la désintégration B⁰(s)→D̅⁽*⁾⁰φ et sur l'angle de mélange des mésons {ω - φ}. L'observation de ces modes B⁰(s)→D̅⁰K⁺K⁻ et sous modes B⁰(s)→D̅⁽*⁾⁰φ permet de préparer les futures analyses de Dalitz de ces modes qui contribueront, en les combinant avec les autres méthodes, à améliorer la précision sur la mesure de la phase complexe γ du mécanisme CKM
The LHCb experiment has been designed to study flavor physics, notably CP violation, on the LHC proton-proton collider. The first LHC run goes from 2011 to 2012, during what LHCb saved 3.19~fb⁻¹ of data with a collision centre-of-mass energy at √s = 7~TeV and √s = 8~TeV.The analysis presented in this thesis is based on a data sample corresponding to the full first run of the LHC (2011-2012). The Cabibbo-Kobayashi-Maskawa (CKM) mechanism describes CP violation in the Standard Model.In the previous decade, two dedicated experiments to flavor physics, BaBar and Belle, proved that the CKM mechanism is at work and dominated by Standard effects.Now LHCb aim is to improve precision on measurements of CKM parameters, in order to serves as the Standard Model reference points, to make in parallel indirect search of New Physics looking for deviations from the Standard Model reference points.Accurate measurements of CKM parameters through different processes provide sensitivity to new physics effects, by testing the global consistency of the Standard Model. This thesis is included inside the first LHCb aim: to improve CKM parameters measurements to constrain the Standard Model.This thesis reports the most precise measurement to date of the branching fraction of B⁰(s)→D̅⁰K⁺K⁻ decay, the first observation of the decays B⁰(s)→D̅⁰K⁺K⁻ and B⁰(s)→D̅⁽*⁾⁰φ with a polarization measurement for the second one, confirmation of the branching fraction measurement of B⁰(s)→D̅⁽*⁾⁰φ, and upper limits on branching fraction of B⁰(s)→D̅⁽*⁾⁰φ decay and on {ω - φ} mixing angle. The observation of B⁰(s)→D̅⁰K⁺K⁻ and B⁰(s)→D̅⁽*⁾⁰φ decays prepare the Dalitz analysis for these channels which will be used, combined with other methodes, to improve measurement on the γ complex-phase of the CKM mechanism
APA, Harvard, Vancouver, ISO, and other styles
40

Giebels, Berrie. "A contribution to gamma-ray astronomy of GeV-TeV Active Galaxies with Fermi and H.E.S.S." Habilitation à diriger des recherches, Ecole Polytechnique X, 2011. http://tel.archives-ouvertes.fr/tel-00672596.

Full text
Abstract:
L'astronomie des rayons g de haute (E > 100MeV, HE) et de très haute énergie (E 100GeV, VHE) ont effectué des progrès considérables en moins d'une décennie. Le nombre de sources émettrices dans ce régime d'énergie a augmenté de plus d'un ordre de grandeur, de nouvelles classes d'émetteurs ont été découvertes et des nouvelles sous-classes ont été établies basées sur l'émission gamma, et les sources connues sont à présent résolues à des échelles spatiales ou temporelles sans précédent révélant de nouvelles propriétés. Les noyaux actifs de galaxie (AGN) sont l'une des classes d'émetteurs les plus énergétiques, dont le pic de puissance émis dans le spectre électromagnétique peut dans certains cas dépasser la capacité de mesure des instruments actuels, et dont l'investigation requiert la maîtrise simultanée du ciel g HE et VHE qu'apportent les expériences Cerenkov au sol (atmospheric Cerenkov telescope, ou ACT) et le satellite Fermi.
APA, Harvard, Vancouver, ISO, and other styles
41

Neu, Thibault. "Etude expérimentale et modélisation de la compression quasi isotherme d’air pour le stockage d’énergie en mer." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0021/document.

Full text
Abstract:
Le stockage d’énergie par air comprimé est une des technologies nécessaires à l’emploi massif des énergies renouvelables intermittentes, d’origine solaire ou éolienne. La compression d’air par piston liquide permet d’augmenter l’efficacité du stockage d’énergie en favorisant un échange thermique intense dans la chambre de compression. La description et l’évaluation de cet échange convectif pour des chambres de compression à faible rapport alésage/course ne sont cependant que peu étudiées dans la littérature scientifique. A l’aide d’une étude expérimentale menée sur deux bancs d’essais, l’échange convectif interne dans la chambre de compression est étudié. Une méthode inverse, couplée à la mesure de la température de l’air comprimé et de la position du piston, est employée afin de déterminer les transferts thermiques pariétaux instantanés au cours des compressions.Après avoir mis en lumière la présence systématique d’une transition du régime convectif de type laminaire vers un régime turbulent dans le volume d’air comprimé, de nouvelles corrélations d’échange convectif sont recherchées. Sur la base de 73 expérimentations, plusieurs formes de corrélations basées sur des nombres sans dimension sont optimisées puis comparées. Deux nouvelles corrélations du nombre de Nusselt, l’une en régime laminaire et l’autre en régime turbulent, sont ensuite sélectionnées. Un modèle instationnaire thermodynamique 1D de la chambre de compression est alors construit dans l’environnement Matlab / Simulink afin de tester la qualité de ces corrélations. Les résultats numériques sont ainsi comparés aux données expérimentales. Finalement, deux essais expérimentaux supplémentaires, réalisés sur un banc d’essai différent, permettent de confirmer la qualité des nouvelles corrélations d’échange convectif proposées
Energy storage by compressed air would be one of the required technologies for enabling massive use of intermittent solar or wind renewable energy sources. Air compression using a liquid piston enables an increase in the energy storage efficiency by inducing an intense heat exchange in the compression chamber. Few studies reported in the literature have focused on the description and evaluation of the convective heat exchange for a low ratio compression chamber (L/D). Using an experimental study and two test benches, the internal convective heat transfer during compression has been studied. In addition to measuring liquid piston position and air pressure, an inverse method was used to determine the instantaneous parietal convective heat flow during compression. After highlighting the presence of a systematic transition from laminar to turbulent convective regime in the compressed air, new convective heat transfer correlations were sought. On the basis of 73 experiments, several correlation forms based on dimensionless numbers were optimized and compared. Two new Nusselt number correlations, one for laminar and the other for turbulent flow, were then selected. A 1D thermodynamic transient model of the compression chamber was built using Matlab / Simulink environment in order to test the quality of these correlations. Thus, numerical results and experimental data were compared. Finally, results from two additional experiments carried out on a different test bench have confirmed the quality of the new proposed correlations for convective heat exchange
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography