To see the other types of publications on this topic, follow the link: Massey Twp.

Dissertations / Theses on the topic 'Massey Twp'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Massey Twp.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Roy, Pierrick. "Perspectives de mesure de la masse du quark Top avec le detecteur ATLAS." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2002. http://tel.archives-ouvertes.fr/tel-00001673.

Full text
Abstract:
Ce document présente le travail réalisé pour instrumenter les "Super-Timim", supports de l'électronique frontale du calorimètre hadronique à tuiles scintillantes d'ATLAS, ainsi que l'analyse préparatoire de mesure de la masse du quark Top avec le détecteur ATLAS. Dans un premier temps, la partie instrumentale expose les différentes étapes ayant conduit â l'instrumentation. Ceci a nécessité en amont une phase dite d'intégration, lors de laquelle des méthodes ont été développées pour résoudre les problèmes liés aux contraintes d'espace et à l'ergonomie lors de l'assemblage des Super-Tiroirs. L'expérience acquise lors de cette première phase a permis la rédaction du protocole de montage des Super-Tiroirs et la mise en place des deux chaînes de montage. Les dix premiers Super-Tiroirs ont ainsi été produits pour ha période de faisceaux 2001, et le démarrage de la production en continu des 260 Super-Tiroirs restants doit commencer en juin 2002. Dans la partie analyse, cette thèse traite de la mesure précise de la masse du quark Top dans le canal lepton plus jets. Il est montré en premier lieu que les incertitudes systématiques domineront la précision de la mesure, en particulier la connaissance de l'échelle d'énergie des jets ainsi que les rayonnements de gluons dans l'état final, conduisant à une erreur totale d'environ 2 GeV. Il est ensuite montré que les mêmes événements peuvent être utilisés pour l'étalonnage en énergie des jets légers à mieux que le pour-cent. Enfin l'utilisation d'un ajustement cinématique devrait permettre de réduire l'impact des effets dus à la connaissance de l'échelle d'énergie des jets légers ainsi qu'aux rayonnements dans l'état final. Une incertitude totale sur la mesure de la masse du quark Top à mieux que 1 GeV paraît envisageable en une année de prise de données à basse luminosité, cette incertitude étant dominée par la connaissance de l'échelle d'énergie des jets de quarks b, supposée à 1%.
APA, Harvard, Vancouver, ISO, and other styles
2

Dechenaux, Benjamin. "Recherche de résonance lourde dans le spectre de masse invariante top-antitop auprès de l'expérience ATLAS du LHC." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01038630.

Full text
Abstract:
La présente thèse constitue le compte rendu de l'analyse menée auprès du détecteur ATLAS du LHC et concernant la recherche de processus de création résonante de nouvelles particules se désintégrant en une paire de quarks top. Elle s'articule principalement autour de la notion de jet de hadrons, dont l'identification et la reconstruction est un enjeu capital pour toute mesure essayant de signer l'apparition de quarks top lors de processus de collisions proton-proton. Après une mise en contexte portant sur une description générale des caractéristiques théoriques et expérimentales que présente la thématique de la détection de jets de hadrons dans le détecteur ATLAS, nous présentons une première tentative de validation de la méthode d'étalonnage hadronique local, dont le but est de corriger ces jets des imprécisions de mesure engendrées par le détecteur. Dans la deuxième partie du document figure l'analyse menée sur les 14~fb$^{-1}$ de données de collisions proton-proton à $sqrt{s} = 8$~TeV, récoltées lors de l'année 2012, à la recherche de l'apparition de processus de création résonante de nouvelle particules extit{lourdes} dans le spectre de masse invariante top-antitop. Pour des particules lourdes, les quarks tops produits lors de la désintégration de ces dernières possèdent une impulsion très grande par rapport à leur masse et la désintégration de tels quarks top conduit souvent à une topologie dans l'état final dite og boostée fg, où le quark top, s'il se désintègre de manière hadronique, est très souvent reconstruit comme un seul jet, de large paramètre de rayon. Le présent travail de thèse propose ainsi une étude préliminaire pour reconstruire et identifier le plus précisément possible ce type de signal, en se basant sur l'étude de la sous-structure des jets de hadrons.
APA, Harvard, Vancouver, ISO, and other styles
3

Hoeth, Hendrik. "Measurement of the top quark mass in the hadronic channel." Lichtenberg (Odw.) Harland Media, 2007. http://d-nb.info/990562964/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Moskalets, Tetiana. "Measurement of the top quark pole mass using double differential ttbar cross sections in the ATLAS experiment at the LHC and improvement of the modelling uncertainties in top quark mass analyses." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP008.

Full text
Abstract:
Le quark top se démarque du reste des particules élémentaires du modèle standard (MS). Étant la particule élémentaire la plus lourde, le quark top ne s'hadronise pas, ce qui permet de mesurer sa masse directement. Le quark top est également la source principale de corrections radiatives dans de nombreux calculs perturbatifs. La détermination précise de la masse du quark top est importante dans les tests de la cohérence du MS. Actuellement, les mesures de la masse du quark top les plus précises utilisent des méthodes "standard", dans lesquelles la distribution de la masse est directement reconstruite. Un point faible principal de ces méthodes est qu'elles sont basées largement sur les simulations Monte Carlo (MC) et permettent d'extraire uniquement une "masse MC du quark top", i.e. liée à un paramètre d'un générateur MC. Les méthodes "alternatives" sont capables de déterminer une masse du quark top théoriquement bien définie car elles mesurent des observables qui peuvent être obtenues à partir de calculs théoriques. Cette thèse de doctorat décrit l'une des alternatives pour la mesure de la masse du quark top, dans laquelle pour la première fois la masse au pôle du quark top est déterminée en ajustant les sections efficaces ttbar doublement différentielles mesurées à 13 TeV avec le détecteur ATLAS aux calculs théoriques au troisième ordre dominant. L'étude se concentre sur les tests de la cohérence de la procédure d'analyse. Un chapitre de cette thèse est également consacré aux études liées aux variations des gerbes partoniques dans le générateur MC Herwig7 pour la production ttbar. Cette étude est motivée par l'importance croissante de l'incertitude sur la modélisation des gerbes partoniques dans les mesures liées au quark top dans ATLAS et par la nécessité de définir cette incertitude de manière plus cohérente. De plus, cette thèse décrit deux analyses visant à mieux comprendre et à améliorer deux composantes importantes de l'incertitude des mesures de masse du quark top: l'incertitude sur la reconnection de couleur et l'incertitude sur l'hadronisation. L'analyse sur la reconnection de couleur se concentre sur l'étude d'observables bidimensionelles sensibles aux modèles de reconnection de couleur dans le générateur MC Pythia8. L'analyse sur l'hadronisation étudie comment le recalibrage des jets influence l'incertitude de l'hadronisation de la masse du quark top à l'aide des simulations MC
The top quark is unique among the elementary particles of the Standard Model (SM). Being the heaviest elementary particle, the top quark does not hadronise, which allows to measure directly its mass. The top quark is also the main source of radiative corrections in many perturbative calculations. Precise determination of the top quark mass is important in consistency tests of the SM. Currently, the most precise top quark mass measurements employ "standard" methods, in which the top quark mass distribution is directly reconstructed. The main weakness of these methods is that they largely rely on the Monte Carlo (MC) simulations and allow to extract only a "MC top quark mass", which is a parameter of a MC generator. However, the ''alternative'' methods are able to determine a theoretically well-defined top quark mass because they measure observables which can be obtained from theory. This doctoral thesis describes one of the top quark mass alternative measurements, in which for the first time the top quark pole mass is determined by fitting the double differential ttbar cross sections measured at 13 TeV with the ATLAS detector to the next-to-next-to-leading order theoretical calculations. The study is in particular focusing on the consistency tests of the analysis procedure. One chapter of this thesis is also devoted to studies related to parton shower variations in the Herwig7 MC generator in the context of ttbar production. This study is motivated by the increasing importance of the parton shower uncertainty in top quark analyses in ATLAS and a need for its more consistent definition. Also, this thesis describes two analyses aiming at better understanding and improving two important uncertainty components of the top quark mass measurements: the colour reconnection uncertainty and the hadronisation uncertainty. The colour reconnection analysis concentrates on the bayesian unfolding of two-dimensional observables, which are sensitive to the colour reconnection models of the Pythia8 MC generator. On the other hand, the hadronisation uncertainty analysis studies how jet recalibration influences the top quark mass hadronisation uncertainty using MC simulated samples
APA, Harvard, Vancouver, ISO, and other styles
5

Bouclon, Julien. "Spectrométrie de masse FT-ICR bidimensionnelle, développements et applications." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE002/document.

Full text
Abstract:
La spectrométrie de masse fournit deux types d’informations : la masse moléculaire des molécules présentes dans un mélange, en une première expérience (MS), puis leurs structures après isolation suivie de fragmentation, obtenues une à une (MS/MS). La spectrométrie de masse FT-ICR bidimensionnelle permet d’obtenir toutes ces informations en une seule expérience, sans isolation, quelle que soit la complexité de l’échantillon. Le prix à payer est une faible résolution dans la dimension indirecte, pouvant être améliorée par une augmentation du temps d’analyse, mais qui semblait limiter cette technique à une simple curiosité scientifique.Le premier objectif est d’implémenter l’échantillonnage non uniforme (NUS) en FT-ICR MS 2D. Cette technique consiste en l’acquisition aléatoire du même nombre de points dans la dimension indirecte que lors d’une acquisition uniforme, mais sur une plage de t1max plus grande. Les points manquants sont ensuite reconstruits par des algorithmes, entrainant une augmentation significative de la résolution du signal sans perte de temps sur le spectromètre. La première étape est de créer un algorithme générant un échantillonnage aléatoire de distribution uniforme pour une couverture optimale de la plage de t1max. Les algorithmes de reconstruction ayant des difficultés à reconstituer des signaux de faible intensité quand le nombre de points non échantillonnés augmente, la deuxième étape est de déterminer le facteur de sous-échantillonnage optimal afin d’obtenir le bon compromis entre résolution et signal-sur-bruit. La troisième étape est de réaliser des spectres MS/MS ayant des massifs isotopiques corrects pour des fragments produits à partir des isotopes les plus lourds.Le deuxième objectif est de décrire le comportement des ions dans la cellule ICR en fonction des impulsions RF utilisées à partir des équations de Lorentz. Dans une première partie, le but est d’établir les équations qui régissent le mouvement des ions précurseurs jusqu’à leur détection. Ensuite, il s’agit d’introduire la fragmentation et de déterminer les solutions analytiques décrivant le mouvement des fragments. La dernière étape est de simuler le comportement des ions précurseurs tout au long de la séquence d’impulsions ainsi que celui des nuages de fragments, de leur formation à leur détection
Mass spectrometry provides two kinds of information: the molecular mass of molecules present in a mixture, obtained all at once (MS), and structure through isolation and fragmentation, obtained one by one (MS/MS). Two-dimensional FT-ICR MS allows simultaneous parallel acquisition of structural information without isolation, regardless of the number of molecules. Nevertheless, the low resolution in the indirect dimension, which could be improved by increasing the acquisition time, seemed to limit this method to a simple curiosity. The first objective is to implement non-uniform-sampling (NUS) in 2D FT-ICR MS. This method consist in the random acquisition of the same number of points in the indirect dimension as in uniform acquisition, but over a wider t1max range. Processing algorithms then reconstruct skipped points, and the result is an increase of signal resolution without wasting analysis time. The first step is to create an algorithm that can generate random sampling with a uniform distribution for an optimal coverage of the t1max range. Processing algorithms may have trouble to reconstruct small peaks when the number of skipped points increases. The second step is to choose the under-sampling ratio for the best compromise between the gain in resolution and the signal-to-noise ratio. The third and last step is to obtain MS/MS spectra with corrects isotopic patterns for fragments produced from heavy isotopes. The second objective is to improve the understanding of ion motions in ICR cells depending on the RF pulses by using Lorentz equations. The first goal is to determine the equations governing precursors motions until their detection. Then the fragmentation will be introduced and analytical solutions describing fragments motions will be established. The last step is to simulate the trajectories of precursors throughout the entire pulse sequence as well as the behavior of fragments clouds, from their formation to detection
APA, Harvard, Vancouver, ISO, and other styles
6

Roy, Pierrick. "Perspectives de mesure de la masse du quark Top avec le détecteur ATLAS." Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF21347.

Full text
Abstract:
Ce document présente le travail réalisé pour instrumenter les "Super-Tiroirs", supports de l'électronique frontale du calorimètre hadronique à tuiles scintillantes d'ATLAS, ainsi que l'analyse préparatoire de mesure de la masse du quark Top avec le détecteur ATLAS. Dans un premier temps, la partie instrumentale expose les différentes étapes ayant conduit à l'instrumentation. Ceci a nécessité en amont une phase dite d'intégration, lors de laquelle des méthodes ont été développées pour résoudre les problèmes liés aux contraintes d'espace et à l'ergonomie lors de l'assemblage des Super-Tiroirs. L'expérience acquise lors de cette première phase a permis la rédaction du protocole de montage des Super-Tiroirs et la mise en place des deux chaînes de montage. Les dix premiers Super-Tiroirs ont ainsi été produits pour la période de faisceaux 2001, et le démarrage de la production en continu des 260 Super-Tiroirs restants doit commencer en juin 2002. Dans la partie analyse, cette thèse traite de la mesure précise de la masse du quark Top dans le canal lepton plus jets. Il est montré en premier lieu que les incertitudes systématiques domineront la précision de la mesure, en particulier la connaissance de l'échelle d'énergie des jets ainsi que les rayonnements de gluons dans l'état final, conduisant à une erreur totale d'environ 2 GeV. Il est ensuite montré que les mêmes événements peuvent être utilisés pour l'étalonnage en énergie des jets légers à mieux que le pour-cent. Enfin, l'utilisation d'un ajustement cinématique devrait permettre de réduire l'impact des effets dus à la connaissance de l'échelle d'énergie des jets légers ainsi qu'aux rayonnements dans l'état final. Une incertitude totale sur la mesure de la masse du quark Top à mieux que 1 GeV paraît envisageable en une année de prise de données à basse luminosité, cette incertitude étant dominée par la connaissance de l'échelle d'énergie des jets de quarks b, supposée à 1%
APA, Harvard, Vancouver, ISO, and other styles
7

Persson, Pontus. "Rewriting for the masses : An analysis on the articles in Nyheter24 during two weeks." Thesis, Linnéuniversitetet, Institutionen för medier och journalistik (MJ), 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-48292.

Full text
Abstract:
The object of this study was to get a wider picture of the articles published in the Swedish online newspaper Nyheter24. The newspaper is the biggest newspaper only coming out online in Sweden today and basically the idea was to get an overview of their content. The study was based upon two research questions: “What does Nyheter24 write about?” and “What type of journalism does Nyheter24 make?” My research method was a quantitative content analysis and the study contains 550 articles in total, gathered during two weeks time from the website. The results show that Nyheter24 writes about various topics but they tend to produce news stories with an odd or sensational angle. More than half of the articles studied in the news section were rewrites from other news media and less than 20 % of the articles in the same section had quotes from interviews done by the newspaper themselves. In the sports section, just one of all the articles published in the section during the two weeks contained a quote from an interview Nyheter24 had done. The study does also show that investigative journalism is rare at Nyheter24. But it was even more uncommon, zero articles in the news section, for the journalists to do reports of places or news events by going outside the newsroom. What played a bigger part in the news from Nyheter24 was social media. Especially the sports section and the entertainment section published stories where social media was the origin of the story. Generally the results show what several other researchers have found out about online journalism. There is a big recycling of news and the journalists tend to be stuck behind a computer, screening websites and doing rewrites to publish a lot of material quickly. Doing interviews to the stories seemed to have a lower priority.
APA, Harvard, Vancouver, ISO, and other styles
8

Armakan, Elvan Yardımoğlu Bülent. "Analysis of two-axis sun tracking system/." [s.l.]: [s.n.], 2003. http://library.iyte.edu.tr/tezler/master/enerjimuh/T000260.rar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Bouvier, Elvire. "Mesure de la masse du quark top à partir d'événements ttbar présentant un J/psi dans l'état final avec l'expérience CMS du LHC." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1092/document.

Full text
Abstract:
La masse du quark top est un paramètre fondamental du Modèle Standard de la physique des particules. L'un des défis du programme de physique du LHC, où le quark top est produit en abondance, est la détermination précise de ce paramètre. Actuellement, il est mesuré via la reconstruction directe de tous les produits de désintégration du quark top. L'incertitude systématique sur la calibration en énergie des jets et sur l'étiquetage de quarks b limite grandement la précision de cette mesure et il est donc indispensable de développer des mesures alternatives. Une possibilité très prometteuse – jusque-là jamais exploitée – est l'étude de désintégrations de paires de quarks top, où l'un des deux quarks se désintègre dans le canal leptonique avec un J/psi créé lors de la fragmentation du quark b. La masse du quark top est extraite à travers sa corrélation à la masse invariante de la combinaison du J/psi et du lepton chargé. Cette méthode présente l'avantage de n'utiliser que des leptons chargés, dont l'énergie-impulsion est mesurée avec une grande précision dans le détecteur CMS
The top quark mass is a fundamental parameter of the Standard Model of Particle Physics. One of the challenges in the LHC physics case, where the top quark is produced in abundance, is the precise determination of this parameter. Currently, it is measured through the direct reconstruction of all the top quark decay products. The systematic uncertainty on the jet energy calibration and b tagging sensibly limits the precision on this measurement and it is thus vital to develop alternative measurements. A very promising possibility – never exploited until now – is the study of top pair decays, where one of the two quarks decays in the leptonic channel with a J/psi created in the b quark fragmentation. The top quark mass is extracted through its correlation to the invariant mass of the J/psi-charged lepton combination. This method presents the advantages of using charged leptons only, whose energy momentum is measured with great accuracy in the CMS detector
APA, Harvard, Vancouver, ISO, and other styles
10

Labicane, Robert Edward. "Position control of a two massed linear actuator used in an optical disk drive system." Thesis, The University of Arizona, 1988. http://hdl.handle.net/10150/276878.

Full text
Abstract:
This study develops the foundation of a digitally implemented control system for the radial positioning of the read/write heads of an optical disk drive system. Topics addressed are: sample rate selection, state reconstruction, closed-loop system response, disk track-following filters, and measurement noise filters. Consideration is given to the unmodeled dynamic's influence on system performance, system sensitivity to parameter variations, and a one sample computational delay. What has been concluded from this work is that the system must be further desensitized to parameter variations, and, at this stage of the development of the control scheme, neither a computational delay nor the unmodeled dynamics degrade system performance significantly.
APA, Harvard, Vancouver, ISO, and other styles
11

Noll, Helena. "Performance trends of seasoned Two Oceans Ultramarathon runners." Master's thesis, Faculty of Health Sciences, 2020. http://hdl.handle.net/11427/32893.

Full text
Abstract:
Background: Endurance running is known to be a prevalent sport, due to well-understood health benefits. Ultramarathon running, particularly in master athletes, has been increasingly popular. Various parameters of an individual's ability to participate in numerous such events have been explored. The performance trends of such seasoned runners have been of interest to identify trends that could influence participation and running career longevity. Aim To identify performance trends of seasoned ultramarathon runners across their Two Oceans Ultramarathon running careers. Specific Objectives The specific objectives were to 1) describe the profile of seasoned ultramarathon runners who have completed 20 or more Two Oceans Ultramarathon races, including sex, number of ultramarathons completed, medal category of peak performance and age at debut Two Oceans Ultramarathon; 2) to determine average performance, peak performance, worst performance and the pattern of improvement or decline in performance in seasoned ultramarathon runners over 20 years of race participation; 3) to determine differences in factors that may influence performance trends, such as sex, number of ultramarathons completed, medal category of peak performance and age at debut Two Oceans Ultramarathon; and 4) to determine the variation in ultramarathon performance based on the sex, number of ultramarathons completed, medal category of peak performance and age at debut Two Oceans Ultramarathon. Methods Data from 625 runners who completed 20 or more Two Oceans Ultramarathons were extracted from a publicly available website (www.twooceansmarathon.org). Finish times across their running careers were used to establish average race speeds, peak and worst performances, changes in performance over time, and coefficients of variation in performance. Groups were compared according to a) sex, b) number of Two Oceans Ultramarathons completed (20 or more than 20), c) age category of debut race, and d) medal category of peak performance. Results The finishing times and race speed results showed that males ran significantly faster than females across their 20 year Two Oceans Ultramarathon running careers (p=0.00001). Runners who completed more than 20 races had faster finishing times and race paces than those who ran 20 Two Oceans Ultramarathons (p=0.00001). When performances of the participants were analysed according to age categories, the youngest age group, namely 16-19, had the fastest average finishing times across 20 years of racing (p=0.00002). Peak and worst performances showed that best personal efforts were attained in the first quarter of the Two Oceans Ultramarathon career, and worst race performances toward the end of these running careers. It was observed that as running careers progressed over time, the groups compared showed a pattern of performance convergence as differences in finishing times and running speeds decreased. Discussion and Conclusion The findings of this study suggest that a decline in performance over time is a natural and inevitable progression of a running career. Peak performances are usually acquired within the first few years of running careers. Participation trends as well as improved performances of master runners has shown that advanced age may be favourable in successful long-term ultramarathon running. This study identified a unique cohort of athletes who have consistently maintained ultramarathon running for 20 or more years. There is an opportunity for more detailed investigation of factors contributing to the longevity of their running careers, with the goal of promoting continuity in endurance running participation and physical activity at large.
APA, Harvard, Vancouver, ISO, and other styles
12

Cinca, Diane. "Etude de la production de paires de quarks TOP avec ATLAS au LHC, mesure de la masse du quark TOP." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00653792.

Full text
Abstract:
Découvert en 1995 à Fermilab, le quark top est le dernier quark découvert. La mesure de ses propriétés permet de tester les prédictions du Modèle Standard et de contraindre la masse du boson de Higgs. De par ses propriétés, le quark top est aussi un partenaire privilégié dans la recherche de particules de Nouvelle Physique attendues à l'échelle du TeV. Ce travail de thèse, effectué auprès du détecteur ATLAS au LHC, présente les méthodes mises en oeuvre afin de mesurer la masse du quark top dans sa désintégration semileptonique. Différentes méthodes de reconstruction des évènements top sont présentées ainsi qu'une analyse dédiée basée sur les arbres de décision boostés. Ses performances sont quantifiées. La mesure précise de la masse du quark top nécessite une compréhension approfondie de l'échelle en énergie des jets. Deux stratégies sont présentées afin de calibrer les jets légers et les jets issus de quark b à l'échelle partonique. Les performances d'un ajustement cinématique appliqué à la mesure de la masse du quark top sont présentées. Une mesure de la masse du quark top est extraite en utilisant une définition de la masse calibrée à l'échelle partonique.
APA, Harvard, Vancouver, ISO, and other styles
13

Vukasin, Julien. "Modélisation des transferts de masse et de chaleur dans une cellule d'électrolyse de production de fluor." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTT132.

Full text
Abstract:
Modélisation des transferts de masse et de chaleur dans une cellule d'électrolyse de production de fluor. La production de fluor par électrolyse est une étape clé de la conversion de l’uranium dans l’industrie nucléaire. Afin d’optimiser ce procédé, les travaux de thèse décrits dans ce manuscrit se sont concentrés sur deux axes : le développement d’un modèle numérique de l’électrolyseur et l’étude du phénomène d’hyperpolarisation cathodique néfaste pour le bon fonctionnement de la cellule. Un modèle couplant plusieurs physiques (thermique avec solidification, diphasique, électrocinétique) a été développé et des essais expérimentaux ont été menés afin d’acquérir, d’une part, certaines propriétés physiques de l’électrolyte nécessaires aux simulations (conductivité thermique et capacité thermique à pression constante) et, d’autre part, des données expérimentales permettant de qualifier le modèle obtenu. Ce travail de modélisation a abouti à l’obtention d’un modèle 3D fiable couplant les physiques citées précédemment, ceci à l’échelle d’un pilote R&D semi-industriel. L’impact de la solidification de l’électrolyte sur le transfert de chaleur a également pu être simulé pour la première fois. Ces essais ont également permis de fournir des premières explications sur le phénomène d’hyperpolarisation cathodique en dressant des tendances claires quant à l’influence de certains paramètres de contrôle de l’électrolyseur comme le titre HF et la température de consigne
Computer modeling of heat transfer and mass transfer in an electrolytic cell for production of fluorineElectrolytic production of fluorine is a key step in uranium conversion for the nuclear industry. In order to improve this process, the work described in this dissertation aims at two main objectives: to build a numerical simulation of the electrolysis cell and to understand the cathodic hyperpolarization effect which lowers the productivity of the cell. A model coupling several physics (heat transfer with solidification, two-phase flow, electrokinetics) has been developed and experiments were made in order to evaluate unknown physical properties of the electrolyte (thermal conductivity and heat capacity at constant pressure). Experimental data were also acquired in order to assess the capacity of the model to simulate various phenomena occurring inside the cell. Eventually, a reliable 3D model of a semi-industrial R&D cell coupling the physics above mentioned has been obtained. The negative impact of the solidification of the electrolyte on the cooling system was simulated for the first time. Thanks to these experiments, it was also possible to determine the major trends which drive the cathodic hyperpolarization effect. The influence of HF mass fraction and temperature on this phenomenon was clearly shown
APA, Harvard, Vancouver, ISO, and other styles
14

Ucpirti, Hasan. "Joint geometry parameter effects on deformability and strength of jointed rock masses at the two dimensional level." Diss., The University of Arizona, 1992. http://hdl.handle.net/10150/185975.

Full text
Abstract:
In this study, the pre-failure behavior of a jointed rock block is modeled by an incrementally linear elastic anisotropic constitutive model (using an orthotropic model in 2D). In order to estimate the parameters in the constitutive model, a new technique was used in this dissertation. A 2D joint geometry generation code was used to generate finite size actual joint networks in 2D rock blocks. A 2D distinct element code (UDEC) was chosen as the stress analysis tool in this study. Fictitious joints were introduced into the rock blocks which contain finite size actual joints to discretize the problem domain into polygons. A number of stress analyses of rock blocks which contain only persistent joints were performed to estimate representative values for mechanical properties of fictitious joints to simulate the intact rock behavior. Finally, the rock blocks having different deterministic actual joint configurations with fictitious joints were subjected to 2D stress analysis under various stress paths using UDEC. Results of these stress analyses were used to estimate the deformational and strength properties of these rock blocks. Influence of joint geometry parameters on the mechanical properties of jointed rock blocks were found to be very significant. Plots are given to show how mechanical properties of rock blocks vary with joint intensity and joint size/block size for different joint orientations. These plots can also be used to estimate REV (Representative Elementary Volume) size and REV properties for rock masses. It is important to note that these REV property values depend on the chosen constitutive models for intact rock and joints. The concept of fracture tensor is reviewed at the 2D level. Relationships between the mechanical properties of jointed rock blocks and the fracture tensor parameters (its first invariant and components) are established. These relationships can be used to estimate the parameters of the chosen constitutive model for the rock block. This constitutive model has captured both scale dependent and anisotropic behaviors of rock masses. The possibility of obtaining the equivalent continuum properties (REV properties) of jointed rock blocks is explored by using the aforementioned relationships. (Abstract shortened by UMI.)
APA, Harvard, Vancouver, ISO, and other styles
15

Sinukoff, Evan, Andrew W. Howard, Erik A. Petigura, Joshua E. Schlieder, Ian J. M. Crossfield, David R. Ciardi, Benjamin J. Fulton, et al. "ELEVEN MULTIPLANET SYSTEMS FROM K2 CAMPAIGNS 1 AND 2 AND THE MASSES OF TWO HOT SUPER-EARTHS." IOP PUBLISHING LTD, 2016. http://hdl.handle.net/10150/621388.

Full text
Abstract:
We present a catalog of 11 multiplanet systems from Campaigns 1 and 2 of the K2 mission. We report the sizes and orbits of 26 planets split between seven two-planet systems and four three-planet systems. These planets stem from a systematic search of the K2 photometry for all dwarf stars observed by K2 in these fields. We precisely characterized the host stars with adaptive optics imaging and analysis of high-resolution optical spectra from Keck/HIRES and medium-resolution spectra from IRTF/SpeX. We confirm two planet candidates by mass detection and validate the remaining 24 candidates to >99% confidence. Thirteen planets were previously validated or confirmed by other studies, and 24 were previously identified as planet candidates. The planets are mostly smaller than Neptune (21/26 planets), as in the Kepler mission, and all have short periods (P < 50 days) due to the duration of the K2 photometry. The host stars are relatively bright (most have Kp < 12.5 mag) and are amenable to follow-up characterization. For K2-38, we measured precise radial velocities using Keck/HIRES and provide initial estimates of the planet masses. K2-38b is a short-period super-Earth with a radius of 1.55 +/- 0.16 R-circle plus, a mass of 12.0 +/- 2.9M(circle plus), and a high density consistent with an iron-rich composition. The outer planet K2-38c is a lower-density sub-Neptune-size planet with a radius of 2.42 +/- 0.29 R-circle plus and a mass of 9.9 +/- 4.6M(circle plus) that likely has a substantial envelope. This new planet sample demonstrates the capability of K2 to discover numerous planetary systems around bright stars.
APA, Harvard, Vancouver, ISO, and other styles
16

Baysal, Onur Alizde Rarail. "Lower-top and upper-bottom points for any formula in temporal logic/." [s.l.]: [s.n.], 2006. http://library.iyte.edu.tr/tezler/master/matematik/T000549.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Cavalleri, Pietro G. "Etude de faisabilité de la mesure de la masse du quark top dans le canal électron-muon avec le détecteur ATLAS auprès du LHC." Paris 6, 2009. http://www.theses.fr/2009PA066619.

Full text
Abstract:
Le LHC est un collisionneur proton-proton ayant une énergie de 14 TeV dans le centre de masse. ATLAS est l'un de quatre détecteurs situés auprès du LHC; ses buts sont la recherche du boson de Higgs et de la nouvelle physique et de nombreux tests de précision sur le Modèle Standard. Parmi ces tests de précision, ceux concernant la physique du quark top sont un domaine d'études priviligié: une mesure très précise de sa masse permet de contraindre celle du boson de Higgs. L'étude présentée dans cette thèse concerne la faisabilité d'une mesure de la masse du quark top. Elle se concentre sur le canal de désintégration en électron-muon qui présente un rapport signal sur bruit très élevé. Une sélection a été implémentée pour trouver le meilleur compromis entre le rapport signal sur bruit de fond et une statistique acceptable, grâce à des coupures sur les valeurs cinématiques des objets. La technique utilisée dans cette thèse pour la mesure de la masse du quark top est appelée méthode des éléments de matrice. Le principe de cette méthode consiste à calculer une probabilité événement par événement pour le signal et le bruit de fond en fonction de la masse du quark top. La densité de probabilité est obtenue grâce à la convolution de l'élément de matrice du signal par les fonctions de résolution du détecteur. Un étalonnage de la mesure a été réalisé: grâce à cela, pour une masse brute mesurée de 178. 1 GeV, la masse corrigée prend une valeur de 176. 7 GeV, pour un lot de 90 événements comprenant 80 événements du signal générés avec une masse du quark top de 175 GeV. L'erreur statistique est de 4. 2 GeV, tandis que l'erreur systématique est égale à 3. 3 GeV.
APA, Harvard, Vancouver, ISO, and other styles
18

Tannoury, N. "Calibration des algorithmes d'identification des jets issus de quarks b et mesure de la section efficace différentielle de production de paires de quarks top-antitop en fonction de la masse et de la rapidité du système top-antitopdans les collisions p-p à une énergie au centre de masse de 7 TeV auprès de l'expérience ATLAS au LHC." Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00785360.

Full text
Abstract:
ATLAS, LHC, quark b, quark top, étiquetage des jets issus de quark b, calibration des algorithmes d'étiquetage des jets issus de quark b, quarks top-antitop, section efficace, section efficace différentielle des paires top-antitop, masse du top, rapidité du top, nouvelle physique.
APA, Harvard, Vancouver, ISO, and other styles
19

Ashleigh, Claudia. "A double masked randomised crossover trial of two silicone hydrogel multifocal contact lenses." Thesis, London South Bank University, 2017. http://researchopen.lsbu.ac.uk/1988/.

Full text
Abstract:
Purpose: To compare visual performance and acceptance of two different designs of monthly disposable silicone hydrogel multifocal contact lenses, the Air Optix Aqua Multifocal and the Biofinity Multifocal. Methods: A double masked randomised crossover trial of 62 presbyopic participants (between 41 and 60 years of age) was conducted. Participants were randomised first into either the Air Optix Aqua Multifocal or the Biofinity Multifocal lens to be worn for four weeks for each modality. There was a washout period of one week before wearing the second option. Measurements included binocular photopic distance visual acuity (VA), binocular photopic near VA, stereoacuity at distance and near and contrast sensitivity in photopic, mesopic and scotopic lighting conditions. Subjective participant experience for quality of vision was collected using the VF-14 visual function questionnaire and a specially designed daily diary. Results: Fifty-seven participants completed both periods of this crossover study (mean age 52.9, 43 females, 14 males). The difference for binocular photopic distance and near VAs between the Air Optix Aqua and Biofinity Multifocal were marginal (distance: p > 0.13, near: p > 0.24). Differences for stereoacuity at distance and near between the Air Optix Aqua and Biofinity Multifocal were not statistically significant (distance: p=0.33, near: p=0.36) and measurements for contrast sensitivity in mesopic and scotopic lighting conditions showed no statistically significant difference between the lens types (mesopic: p > 0.18 and scotopic: p > 0.31). Photopic contrast sensitivity showed statistically significant results and was marginally better with the Air Optix Aqua Multifocal than Biofinity Multifocal (p=0.013 by paired t-test and p=0.018 Wilcoxon Signed Ranks test). This was judged unlikely to be of clinical significance and most likely a chance finding. Marginal but not statistically significant preferences were found for the data of the VF-14 visual function questionnaire and the daily diary with participants preferring the Air Optix Aqua Multifocal for distance vision (distance vision scores: Wilcoxon Signed Ranks test: 79-76%) and reporting more satisfaction with intermediate and near vision with the Biofinity Multifocal lens design (intermediate vision scores: 66-60% and near vision scores: 74-72%). Comfort scores were equally high for both lens designs (comfort scores: 78- 82%). 43 participants (75%) felt soft multifocal contact lenses were a good alternative to spectacles and 33 participants (58%) were continuing to use one of the two designs one year after the trial ended. Of these, 17 wearers (51%) were wearing the Air Optix Aqua and 16 (49%) the Biofinity Multifocal lens. Conclusions: There were no consistent differences in visual performance between the Air Optix Aqua Multifocal and the Biofinity Multifocal lens design. The Air Optix Aqua multifocal was found to be marginally superior in participants’ subjective scores for binocular distance vision and the Biofinity Multifocal for binocular intermediate and near vision. Based on feedback at follow up, presbyopic participants in this research rated soft silicone hydrogel multifocal contact lenses a good alternative to spectacle wear.
APA, Harvard, Vancouver, ISO, and other styles
20

Cogneras, E. "Production de paires de Top et effet de Nouvelle Physique. Calibration des jets légers avec le processus W en jet-jet. Mesure de la masse du Top." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00178221.

Full text
Abstract:
Depuis sa découverte en 1995 à Fermilab, le quark Top fait l'objet d'une grande attention. Il complète la troisième famille de quarks du Modèle Standard de la physique des particules, et la mesure de ses propriétés contraint fortement ce modèle. Il constitue également une voie d'accès privilégiée à la nouvelle physique attendue à une énergie de l'ordre du TeV. Ce travail de thèse, réalisé auprès du détecteur ATLAS du LHC, présente les méthodes mises en œuvre afin de mesurer précisément la masse du quark Top dans le canal lepton+jets. Différentes stratégies d'analyse sont présentées en fonction des performances du détecteur, notamment sa capacité d'identification des jets beaux. La mesure précise de la masse du Top passe par une connaissance approfondie de l'échelle d'énergie des jets. Ce document propose une stratégie d'étalonnage des jets légers qui s'appuie sur la contrainte de la masse du boson W, et montre qu'une précision de l'ordre du GeV/c² sur la mesure de la masse du Top est tout à fait possible. Une évaluation du potentiel de découverte de résonances ttbar, prévues dans le cadre de modèles au-delà du Modèle Standard, est également menée.
APA, Harvard, Vancouver, ISO, and other styles
21

Gault, Joseph. "Development of Top-Down Mass Spectrometry Approaches for the Analysis of Type IV Pili." Palaiseau, Ecole polytechnique, 2013. https://tel.archives-ouvertes.fr/pastel-00987029/document.

Full text
Abstract:
La caractérisation de protéines par spectrométrie de masse "top-down" (TDMS) possède plusieurs avantages sur l'approche "bottom-up" (BU), notamment pour la caractérisation des protéoformes; c'est-à-dire l'ensemble des protéines exprimées par la cellule, y compris celles portant les modifications post-traductionnelles (MPT). Dans cette thèse la TDMS a été développée pour l'analyse des pili de type IV (T4P) à la fois sur Orbitrap et sur FT-ICR. Les T4P sont des organelles extracellulaires composées principalement d'une protéine, la piline majeure, qui peut être fortement décorée par des MPT. Pour la piline majeure PilE, du pathogène humain Neisseria meningitidis (Nm), la TDMS a été optimisée pour obtenir la première caractérisation de toutes les protéoformes de PilE exprimées par une souche de référence et un rôle biologique a été proposé pour la MPT glycérophosphate. De plus la TDMS a été appliquée pour une étude à plus grande échelle des MPT des pili provenant des souches cliniques de Nm non-caractérisées. La comparaison des méthodologies TD et BU a révélé à la fois leur complémentarité et la faiblesse inhérente à l'approche BU pour la caractérisation complète de protéoformes. En combinaison avec d'autres techniques structurales, il a été montré que les pili exprimés par les souches de Nm de classe II sont fortement glycosylés, que la glycosylation est dirigée par la séquence de PilE, et que ces sucres modifient fortement la surface des fibres de pili. Ces observations ont amené à une hypothèse nouvelle sur le mécanisme d'évasion immunologique des T4P de classe II chez Nm. De plus la première caractérisation d'une T4P exprimée par une bactérie Gram positif a été réalisée
Top-down mass spectrometry (TDMS) is an alternative protein characterisation strategy to the more widespread bottom-up (BU) approach. TDMS has the unique ability to fully characterise the variety of protein products expressed by the cell (proteoforms), including those bearing posttranslational modifications (PTMs). In this thesis TDMS has been developed on both FT-ICR and Orbitrap mass spectrometers for the analysis of type IV pili (T4P). This includes the first T4P to be visualised in a Gram positive bacterium (Streptococcus pneumoniae). T4P are filamentous, extracellular organelles primarily composed of a single protein subunit or major pilin that can be highly posttranslationally modified. For the major pilin, PilE, of the human pathogen Neisseria meningitidis (Nm), TDMS was extensively optimised and the first complete characterisation of all proteoforms of PilE from a single Nm strain performed. A biological role has been proposed for the enigmatic phosphoglycerol PTM. The approach was extended and applied in the first large scale study of PTMs on PilE from uncharacterised, pathogenic strains of Nm. Comparison of the TD and BU methodologies revealed both their complementarity and the inherent weakness of the BU approach for full proteoform characterisation. TDMS was combined with other structural techniques to reveal that pilins from the previously unstudied class II isolates of Nm are extensively glycosylated and that glycosylation is both driven by the primary structure of PilE and has a profound effect on pilus surface topology. These observations have been used to offer the first explanation of how T4P expressed by class II isolates of Nm avoid immune detection
APA, Harvard, Vancouver, ISO, and other styles
22

Halim, Mohammad Abdul. "Coupling Laser with Mass Spectrometry for Biomolecules Characterization : From Peptides towards Protein Fibrils." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1088/document.

Full text
Abstract:
La spectrométrie de masse est devenue un outil indispensable pour la recherche en protéomique, notamment grâce au développement récent de nouveaux spectromètres de masse comme l’Orbitrap et de nouvelles méthodes de dissociation. La stratégie « bottom-up » (analyse des mélanges de peptides protéolytiques) est la plus utilisée par son efficacement et sa simplicité par rapport à la stratégie top-down (analyse des peptides plus longs ou des protéines intactes), mais cette dernière permet une caractérisation plus complète des isoformes de protéines et des modifications post-traductionnelles.Les méthodes de dissociation utilisant des photons, comme la photodissociation dans le domaine ultra-violet (UVPD) et la dissociation multiphotonique infrarouge (IRMPD), ont reçu une grande attention comme approches alternatives aux méthodes de dissociation par collision. L'absorption du photon UV à haute énergie peut être « diluée » sur l'ensemble du peptide ou de la protéine et provoque une fragmentation étendue du squelette peptidique (liaisons C-C), tandis que les photons IR à faible énergie augmentent progressivement l'énergie interne et dissocient préférentiellement les liaisons amide (C-N) les plus labiles.Cette thèse est centrée sur le développement de méthodes et les applications pour une caractérisation structurale de biomolécules par des méthodes d'activation utilisant des photons. L'intérêt de combiner des photons infrarouges à faible énergie et des photons UV à haute énergie dans un spectromètre de masse Orbitrap, pour la caractérisation de petites protéines, a été évalué. En outre, la dissociation infrarouge multiphotonique a été implémentée dans un piège à ions électrostatique afin d’étendre les méthodes de fragmentation aux macromolécules de très haut poids moléculaires dans le domaine mégadalton. L'une des principales avancées de cette thèse a été d'adapter ces méthodes de spectrométrie de masse aux objets biomoléculaires, allant des petits peptides (dans la gamme de masse de kilodalton) à des fibres de protéines entières (dans la gamme de masse de mégadalton)
The structural characterization of proteins often required them to be fragmented into small units containing only few amino acids. In bottom-up approach, proteins are cleaved into small peptides by enzyme then these peptides are subjected to further fragmentation in a collision cell of a tandem mass spectrometer. However, in top-down approach, proteins can directly be dissociated (without enzyme) into small fragments by collision, electron and photon-driven dissociations. Photon-based activation methods including ultraviolet photodissociation (UVPD) and infrared multiphoton dissociation (IRMPD) have received great attention as an alternative to electron-driven and collision induced dissociation methods. Absorption of the high-energy UV photon is dispersed over the whole peptide or protein and stimulates extensive C?Ca backbone fragmentation while the low-energy IR photons gradually increases the internal energy and thus favorably dissociates the most labile amide (C?N) bonds. This thesis focuses on the method development and applications for characterizing biomolecules by photon-based activation methods. The interest of combining high-energy UV photons and low-energy IR photons in an Orbitrap mass spectrometer, for protein and post-translationally modified peptide characterization, has been evaluated. Moreover, infrared multiphoton dissociation has been implemented in a gated electrostatic ion trap to push forward the limit of fragmentation methods to large megadalton ions. One of the main breakthroughs in this thesis is the ability to adapt these method developments and applications to biomolecular objects ranging from small peptides (in kilodalton mass range) to entire protein fibrils (in megadalton mass range)
APA, Harvard, Vancouver, ISO, and other styles
23

Yiğit, Nergiz Seçkin Yavuz. "Industrial product design by using two-dimensional material in the context of origamic structure and integrity/." [s.l.]: [s.n.], 2004. http://library.iyte.edu.tr/tezler/master/endustriurunleritasarimi/T000457.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Croc, De Suray Aurélien. "Mesure de la masse du quark top dans les canaux di-leptoniques auprès de l'expérience DØ au Tevatron." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00638431.

Full text
Abstract:
Le quark top est le quark le plus lourd contenu dans le modèle standard. Découvert en 1995 par les deux expériences du Tevatron, il possède des caractéristiques atypiques telles qu'un temps de vie le plus court jamais observé qui le fait se désintégrer avant de pouvoir s'hadroniser et donne ainsi accès à sa masse dont sa mesure est alors d'une très grande précision. Les données accumulées par l'expérience DØ entre 2002 et 2009, représentant une luminosité intégrée de 5,4 fb⁻¹, sont utilisées pour effectuer cette mesure à partir de la méthode de l'élément de matrice dans les canaux di-leptoniques électron--électron, électron--muon et muon--muon. La valeur de la masse du quark top mesurée, 174.0 ± 1,8 (stat.) ± 2,4 (syst.) GeV, est en très bon accord avec les autres mesures effectuées. Sa précision est limitée, pour la première fois pour ces canaux, par les incertitudes systématiques. Dans cette thèse, plusieurs approches sont étudiées pour améliorer la précision de la mesure : l'utilisation d'informations sur l'identification de jets issus de quarks b afin d'optimiser la sélection des événements top--anti-top et une meilleure détermination des incertitudes systématiques principales. Une attention particulière est portée sur la simulation Monte-Carlo des muons à DØ : l'amélioration de l'ajustement de la résolution sur la mesure de l'impulsion transverse des muons simulés avec les données, discutée dans cette thèse, sera utilisée afin d'améliorer les prochaines mesures des propriétés du quark top ainsi que d'autres analyses menées dans l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
25

Croc, Aurélien. "Mesure de la masse du quark top dans les canaux di-leptoniques auprès de l'expérience DØ au Tevatron." Paris 6, 2011. http://www.theses.fr/2011PA066262.

Full text
Abstract:
Le quark top est le quark le plus lourd contenu dans le modèle standard. Découvert en 1995 par les deux expériences du Tevatron, il possède des caractéristiques atypiques telles qu'un temps de vie le plus court jamais observé qui le fait se désintégrer avant de pouvoir s'hadroniser et donne ainsi accès à sa masse dont sa mesure est alors d'une très grande précision. Les données accumulées par l'expérience DØ entre 2002 et 2009, représentant une luminosité intégrée de 5,4 fb⁻¹, sont utilisées pour effectuer cette mesure à partir de la méthode de l'élément de matrice dans les canaux di-leptoniques électron--électron, électron--muon et muon--muon. La valeur de la masse du quark top mesurée, 173. 6 ± 1,8 (stat. ) ± 2,5 (syst. ) GeV, est en très bon accord avec les autres mesures effectuées. Sa précision est limitée, pour la première fois pour ces canaux, par les incertitudes systématiques. Dans cette thèse, plusieurs approches sont étudiées pour améliorer la précision de la mesure : l'utilisation d'informations sur l'identification de gerbes hadroniques issues de quarks b afin d'optimiser la sélection des événements top--anti-top et une meilleure détermination des incertitudes systématiques principales. Une attention particulière est portée sur la simulation Monte-Carlo des muons à DØ : l'amélioration de l'ajustement de la résolution sur la mesure de l'impulsion transverse des muons simulés avec les données, discutée dans cette thèse, sera utilisée afin d'améliorer les prochaines mesures des propriétés du quark top ainsi que d'autres analyses menées dans l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
26

Louriou, Clément. "Modélisation instationnaire des transferts de masse et de chaleur au sein des évaporateurs capillaires." Thesis, Toulouse, INPT, 2010. http://www.theses.fr/2010INPT0083/document.

Full text
Abstract:
Dans ce travail, nous nous intéressons à la dynamique de croissance d'une poche de vapeur par vaporisation en milieu poreux, en relation avec l'analyse des transferts couplés de masse et de chaleur dans les mèches poreuses des boucles fluides diphasiques à pompage capillaire. Nous proposons un modèle pour les régimes transitoires, régimes encore très mal compris en dépit de leur grande importance pratique (phase de démarrage, variations de puissance, etc.). Une approche de type "réseau de pores" est adoptée et permet de prédire la distribution des phases à l'échelle de l'espace des pores. Dans une étape préliminaire, une étude spécifique de drainage (déplacement d'un fluide mouillant par un fluide non mouillant) par pressurisation du fluide envahisseur est abordée. Cette étape, nécessaire au développement et au test d'un algorithme de croissance de poche de gaz, permet de valider le modèle hydrodynamique quantitativement par une étude expérimentale dédiée. Il est mis en évidence le rôle des films liquides et de la compressibilité du gaz. Le modèle est ensuite complété par l'ajout des transferts thermiques et du changement de phase. Ici encore, une étude expérimentale dédiée est proposée, afin de valider l'outil numérique mis en place. Enfin, un ultime ajout au modèle permet de prendre en compte les phénomènes particuliers liés à l'imbibition (déplacement d'un fluide non mouillant par un fluide mouillant). Des résultats statistiques concernant la réponse dynamique d'une poche de vapeur à l'application d'une densité de puissance sont présentés, ainsi que certaines situations oscillantes dans la mèche poreuse. Nous finissons par discuter de l'influence du re-mouillage de la mèche poreuse, phénomène qui entraîne une hystérésis significative
We study the dynamic of a vapour pocket growing by vaporisation in a porous medium, in relation with the analysis of coupled heat and mass transfers in the porous wick of loop heat pipes (LHP). We propose a model for transient modes, which are still poorly understood in spite of their importance (start-ups, power transitions, etc.). This work is based on a pore network approach enabling us to predict the phase distribution at the pore space scale. In a preliminary step, a study of drainage (displacement of a wetting fluid by a non wetting one) by pressurisation of the invading fluid is performed. This step is necessary for the development and the test of the vapour pocket growing algorithm. A quantitative validation of the hydro-dynamical model is obtained thanks to a dedicated experimental study. The influence of liquid films as well as gas compressibility is investigated. Our model is then improved to deal with heat transfer and phase change. Again, a dedicated experimental study is performed in order to validate the numerical tool. The model is finally improved a last time to deal with the effects due to imbibition mechanisms (displacement of a non wetting fluid by a wetting one). Statistical results concerning the dynamic response of a vapour pocket to the application of a power density are presented, andsome specific oscillating situations in the wick are identified. We finish discussing the influence of the re- etting of the porous wick, a phenomenon which induces a significant hysteresis effect
APA, Harvard, Vancouver, ISO, and other styles
27

Li, Shan. "Régionalisation du climat avec le modèle LMDZ : étude méthodologique." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066451/document.

Full text
Abstract:
Ce manuscrit de thèse rapporte quelques études méthodologiques sur la régionalisation du climat par l’approche dynamique. Le domaine géographique couvre une large zone allant du milieu de l’Atlantique Nord à l’Europe de l’Est, et du Sahel à l’Arctique. La quête à tout prix d’une amélioration du climat régional n’est pas au cœur du manuscrit. Pourtant, l’accent est mis sur trois points clefs, généralement rencontrés par toutes tentatives de régionalisation du climat. Le premier point concerne le schéma d’imbrication : imbrication du sens unidirectionnel du GCM vers le RCM (one-way nesting, OWN) ou bidirectionnelle entre le GCM et le RCM (two-way nesting, TWN). Le deuxième point examine la réalisation technique d’imbrication, qui est généralement une opération de relaxation newtonienne ajoutée aux équations pronostiques du modèle. Le troisième point est sur l’effet du raffinement de maille dans le RCM. L’esprit général du manuscrit consiste à conceptualiser et réaliser des simulations numériques pour traiter ces trois points avec astuces afin de les isoler et quantifier. Le modèle de circulation générale LMDZ est utilisé pour l’ensemble des expériences. Il joue à la fois le rôle du GCM et celui du RCM. Dans les deux cas, il conserve strictement ses paramétrisations physique et sa configuration dynamique, ainsi que tous les forçages ou paramètres externes. La stratégie d’expérimentation, qualifiée comme Master versus Slave, consiste à réaliser des simulations sous deux protocoles reliés l’un et l’autre : « DS-300-to-300 » désigne Downscaling du GCM à 300 km de résolution horizontale au RCM qui est identique au GCM, aussi à 300 km de résolution spatiale ; « DS-300-to-100 » désigne Downscaling de 300 km (GCM) à 100 km (RCM). Il est clair que « DS-300-to-300 » est un cadre idéalisé, particulièrement approprié pour évaluer l’effet de l’opération de relaxation. Le protocole « DS-300-to-100 », soustrait du « DS-300-to-300 », permet d’évaluer très précisément l’effet de la résolution du RCM augmentée. Dans chaque protocole, deux schémas de communication entre le RCM et le GCM ont été implémentés, l’un (OWN) est la méthodologie classique du sens unique qui consiste à piloter le RCM par les sorties du GCM, l’autre (TWN) est d’établir un échange mutuel entre les deux modèles. Le climat régional est sensible au choix des schémas de communication entre le RCM et le GCM, surtout aux moyennes latitudes. TWN apporte une nette amélioration sur la représentation des informations frontalières. Au niveau des modes régionaux de circulation atmosphérique, exprimés en structures d’EOF, OWN et TWN sont tous deux capables de les reproduire, mais avec de légères déformations dans l’espace. La relaxation newtonienne, largement utilisée dans la régionalisation du climat, permet au RCM de bien suivre la trajectoire synoptique du GCM. Pourtant, la concomitance temporelle et la ressemblance spatiale sont dépendantes des variables considérées, des saisons, des régimes de temps, et des échelles spatio-temporelles de circulations atmosphériques. Des cas de dé-corrélation sont remarquables quand la circulation dominante de la région est de petites échelles. Le raffinement de maille augmente la liberté du RCM à développer sa dynamique interne, surtout aux petites échelles, mais aussi à l’ensemble du spectre de la circulation à travers l’interaction des échelles. Ainsi le RCM devient plus indépendant et s’écarte davantage du GCM. Cette thèse, autour des aspects méthodologiques de la régionalisation du climat, aide à avoir une meilleure compréhension sur la pratique. Elle adresse aussi un message de précaution à la communauté RCM et l’invite à bien vérifier leur méthodologie de régionalisation
The work developed in this thesis explores through methodological modelling studies the current techniques of climate regionalization. In this case, the regionalization focuses on a geographical domain covering from the North Atlantic to Eastern Europe longitudinal wise, and from the Sahel to the Arctic as a latitudinal interval. The aim of this thesis is not the improvement of regional climate modelling per se, but tackling three key questions that are commonly met by all attempts when trying to improve climate regionalization. Firstly, the choice and advantages of the nesting scheme: one-way nesting (OWN) versus two-way nesting (TWN). Secondly, the evaluation of the nesting method, which is generally a Newtonian relaxation operation added to the prognostic equations of the model. And finally, the consequences of the mesh refinement in Regional Circulation Models (RCM). The objective of this manuscript consists in conceptualizing and carrying out numerical simulations to answer these three questions by isolating each individual effect and quantifying the consequences of each of the effects. The general circulation model LMDZ is used for all experiments. It is able to play the role of the General Circulation Model (GCM) and the RCM, keeping the same physical parameterizations and the same dynamical configuration, as well as the same external forcings and model parameters. Our experimental set-up, referred as “Master versus Slave”, consists on two related protocols: “DS-300-to-300” and “DS-300-to-100”. The former implies the downscaling of the GCM at 300 km of horizontal resolution while the RCM has the identical resolution of 300 km. The latter implies the downscaling from 300 km (GCM) to 100 km (RCM). We have assumed the “DS-300-to-300” as an idealized framework, particularly appropriate to evaluate the relaxation operation effect. In parallel, the “DS-300-to-100” protocol, subtracted from the “DS-300-to-300”, allows assessing the effect of the increased resolution for the RCM. In each protocol, two communication schemes between the RCM and the GCM have been implemented. The first one -OWN- is the classic one-way methodology to control the RCM by the outputs of the GCM. The second one -TWN- is used to establish a mutual exchange between the two models (RCM and GCM). This thesis has found that climate regionalization is highly sensitive to the choice of the communication scheme between the RCM and the GCM, especially at mid-latitudes. TWN clearly improves the representation at the boundaries. For the regional atmospheric circulation modes, expressed in EOF structures, both OWN and TWN are able to reproduce them, but with a slight deformation in space. Newtonian relaxation, widely used in climate regionalization, allows the RCM to follow the GCM’s synoptic trajectory. However, temporal concomitance and spatial resemblance of the two depend on the variables considered, on the particular seasons selected, on the weather regimes, and on the spatiotemporal scales of atmospheric circulation. De-correlation cases are remarkable when the dominant circulation on a regional scale is small. Moreover, mesh refinement increases the freedom of the RCM to develop its internal dynamic circulation, especially at small scales, and also across the whole spectrum of circulation regimes through the scales in which the RCM operates. Thus, when resolution increases, the RCM becomes more independent from the GCM behavior and the model results deviate significantly from the GCM. Focused on the methodological aspects of climate regionalization, this thesis helps to gain a better understanding on the regionalization practice. Il also sends a precautionary message to the RCM community, kindly inviting to verify their regionalization strategy
APA, Harvard, Vancouver, ISO, and other styles
28

Demilly, Aurélien. "Mesure de la masse du quark top dans le canal dileptonique électron-muon avec la méthode des éléments de matrice dans l'expérience ATLAS auprès du LHC." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066179/document.

Full text
Abstract:
Le LHC a fourni des collisions proton-proton avec une énergie dans le référentiel de centre de masse égale à 7 TeV en 2011, 8 TeV en 2012, correspondant respectivement à une luminosité intégrée de 5 fb^{-1} et 23 fb^{-1}. Les données collectées par le détecteur ATLAS ont permis de valider la compréhension du détecteur, d'évaluer ses performances dans des conditions expérimentales de plus en plus complexes, de réaliser de nombreuses mesures de paramètres de physiques ainsi que la découverte du boson de \bsc{Higgs}. Dans un contexte de recherche de nouvelle physique, l'étude du quark top est primordiale, ce dernier étant impliqué dans de nombreux processus au delà du modèle standard. Sa masse se doit alors d'être connue avec précision, étant un paramètre important du modèle standard et des théories de nouvelle physique. Après une description du modèle standard et de la place du quark top en son sein, la première partie de cette thèse s'attache à présenter le détecteur ATLAS et plus précisément son calorimètre électromagnétique pour lequel une étude de correction de ses constantes d'étalonnage est présentée. La deuxième partie décrit les événements de physique du quark top détecté à ATLAS et leur sélection. Les outils techniques et logiciels d'analyse sont présentés. La dernière partie se consacre à la présentation de la méthode de mesure, de la théorie à la réalisation de la mesure de la masse du quark top dans le canal dileptonique électron-muon. Cette dernière donne une masse du quark top de 173{,}65 \pm 0{,}70 \pm 2{,}36 GeV ; compatible avec les autres mesures réalisées à travers le monde
The LHC produced proton-proton collisions data with 7 TeV of center of mass energy in 2011 and 8 TeV in 2012 corresponding to an integrated luminosity of (respectively) 5 fb^{-1} and 23 fb^{-1}. Data collected by ATLAS have led to a better understanding of the detector, to the evaluation of its performance, to many measurements of physical quantities and the discovery of the \bsc{Higgs} boson. In a context of search for new physics, top quark studies are necessary as it is present in many new physics processes. The top quark mass is an important parameter of both beyond the standard model theories and the standard model itself, thus it must be measured with enough precision to be discriminatory. After a summary of the standard model and the role of the top quark, the first part of this thesis presents the ATLAS detector and focus on its electromagnetic calorimeter for which a study of the calibration constant patching process is detailed. The second part describes top quark physics events measured in ATLAS and their selection. Technical and software tools are presented. The last part presents the measurement method, from the theory to the actual measurement of the top quark mass in the dilepton electron-muon channel. This measurement yields a top quark mass of 173{,}65 \pm 0{,}70 \pm 2{,}36 GeV , showing no discrepancy with current worldwide measurements
APA, Harvard, Vancouver, ISO, and other styles
29

Ouedraogo, Wendyam. "Méthode géométrique de séparation de sources non-négatives : applications à l'imagerie dynamique TEP et à la spectrométrie de masse." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00859690.

Full text
Abstract:
Cette thèse traite du problème de séparation aveugle de sources non-négatives (c'est à dire des grandeurs positives ou nulles). La situation de séparation de mélanges linéaires instantanés de sources non-négatives se rencontre dans de nombreux problèmes de traitement de signal et d'images, comme la décomposition de signaux mesurés par un spectromètre (spectres de masse, spectres Raman, spectres infrarouges), la décomposition d'images (médicales, multi-spectrale ou hyperspectrales) ou encore l'estimation de l'activité d'un radionucléide. Dans ces problèmes, les grandeurs sont intrinsèquement non-négatives et cette propriété doit être préservée lors de leur estimation, car c'est elle qui donne un sens physique aux composantes estimées. La plupart des méthodes existantes de séparation de sources non-négatives requièrent de ''fortes" hypothèses sur les sources (comme l'indépendance mutuelle, la dominance locale ou encore l'additivité totale des sources), qui ne sont pas toujours vérifiées en pratique. Dans ce travail, nous proposons une nouvelle méthode de séparation de sources non-négatives fondée sur la répartition géométrique du nuage des observations. Les coefficients de mélange et les sources sont estimées en cherchant le cône simplicial d'ouverture minimale contenant le nuage des observations. Cette méthode ne nécessite pas l'indépendance mutuelle des sources, ni même leur décorrélation; elle ne requiert pas non plus la dominance locale des sources, ni leur additivité totale. Une seule condition est nécessaire et suffisante: l'orthant positif doit être l'unique cône simplicial d'ouverture minimale contenant le nuage de points des signaux sources. L'algorithme proposé est évalué avec succès dans deux situations de séparation de sources non-négatives de nature très différentes. Dans la première situation, nous effectuons la séparation de spectres de masse mesurés à la sortie d'un chromatographe liquide haute précision, afin d'identifier et quantifier les différents métabolites (petites molécules) présents dans l'urine d'un rat traité au phénobarbital. Dans la deuxième situation, nous estimons les différents compartiments pharmacocinétiques du radio-traceur FluoroDeoxyGlucose marqué au fluor 18 ([18F]-FDG) dans le cerveau d'un patient humain, à partir d'une série d'images 3D TEP de cet organe. Parmi ces pharmacocinétiques, la fonction d'entrée artérielle présente un grand intérêt pour l'évaluation de l'efficacité d'un traitement anti-cancéreux en oncologie.
APA, Harvard, Vancouver, ISO, and other styles
30

Balli, Fabrice. "Calibration de l'échelle d'énergie des jets et mesure de la masse du quark top dans le canal semi-leptonique dans l'expérience ATLAS." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01059762.

Full text
Abstract:
L'objectif principal de cette thèse est de fournir une mesure aussi précise que possible de la masse du quark top dans son canal de désintégration semi-leptonique. Cette mesure expérimentale est réalisée à l'aide du détecteur ATLAS, installé auprès du LHC, un collisionneur proton-proton. Les motivations principales à cette mesure de précision sont les contraintes qu'elle apporte aux modèles de physique. Par ailleurs, la masse du quark top est un paramètre permettant d'estimer l'état de stabilité du vide dans le cadre du Modèle Standard, à l'échelle de Planck. Les jets sont des objets dont l'étalonnage en énergie est cruciale pour la mesure. Une étude détaillée de cette calibration est présentée, et notamment l'impact des conditions réelles de prises de données sur la performance de ces objets. La mesure de masse utilisant les données prises en 2011 à une énergie dans le centre de masse de 7 TeV est détaillée. Cette mesure utilise une méthode d'analyse particulière, appelée méthode des templates tridimensionnels. La masse du quark top mesurée est: mtop = 172.01 ± 0.92 (stat) ± 1.17 (syst) GeV. Les données prises en 2012 à une énergie dans le centre de masse de 8 TeV sont aussi analysées, et une mesure préliminaire de la masse du quark top est fournie: mtop = 172.82 ± 0.39 (stat) ± 1.12 (syst) GeV, la combinaison des deux mesures donnant le résultat le plus précis de cette thèse: mtop = 172.64 ± 0.37 (stat) ± 1.10 (syst) GeV.
APA, Harvard, Vancouver, ISO, and other styles
31

Öterkuş, Ertan Artem Altundağ H. Seçil. "Evaluation of strees intensity factor for an infinite hollow cylinder containing a crack and two rigid inclusions by finite element analysis /." [S.l. : s.n.], 2002. http://library.iyte.edu.tr/tezler/master/makinamuh/T000160.rar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Singh, Gurvinder. "Detection of intermediary hosts through TCP latency propagation." Thesis, Norwegian University of Science and Technology, Department of Telematics, 2009. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9029.

Full text
Abstract:

Today people from all lifestyles, government officials, researchers and executives use internet. The people start to depend on internet for their daily life. However, the increased dependence comes with a great risk. The popularity and potential of internet attracts users with illegal intentions as well. The attackers generally establish a connection chain by logging in to a number of intermediary hosts before launching an attack at the victim host. These intermediary hosts are called as stepping-stones. On the victim side, it becomes hard to detect that the peer communicating with the victim is whether a real originator of the connection or it is merely acting as an intermediary host in the connection chain. This master dissertation proposed an approach based on Interarrival packet time to distinguish an incoming connection from a connection coming via some intermediary hosts. The proposed approach uses information available at the receiving end and applicable to encrypted traffic too. The approach was successfully tested for SSH, Telnet, FTP, HTTP and SMTP protocols and implemented in to an intrusion detection system for corresponding protocols. The main applications for the proposed approach are Manual intrusion detection, Tor usage detection and Spam messages detection. The approach is also applicable for the digital forensics investigations. Keywords : Network security, Stepping stone detection, Manual intrusion detection, Tor usage detection, Spam detection and Digital forensics investigation.

APA, Harvard, Vancouver, ISO, and other styles
33

De, Vasconcelos Corga Kevin. "Étude du couplage du boson de Higgs au quark top dans les canaux avec deux leptons de même signe avec l’expérience ATLAS au LHC." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0316.

Full text
Abstract:
Le Grand Collisionneur de Hadrons (Large Hadron Collider, LHC), au CERN (European Organisation for Nuclear Research), permet de sonder la matière à l’échelle subatomique. Après deux ans d’arrêt pour raison de maintenance et mises à jour, le LHC a redémarré en juin 2015 avec une augmentation de luminosité et d’énergie dans le centre de masse de 8 à 13 TeV. La première partie de ce document traite de la mesure de l’efficacité de reconstruction des électrons dans le détecteur ATLAS avec 27:7 fb−1 de données collectées en 2016. L’environnement hadronique des collisions voit les leptons être des marqueurs caractéristiques d’évènements d’intérêt. La mesure de leur efficacité de reconstruction est par conséquent cruciale. Méthode de mesure et d’estimation des bruits de fond sont présentées pour les électrons et les efficacités sont calculées dans les données et simulations. Les électrons sont reconstruits avec une efficacité variant de 97% à 99%. La précision de la mesure est de l’ordre du pourcent à bas ET et du pour mille pour ET > 20 GeV. Les résultats ont été utilisés par l’ensemble des analyses de l’expérience ATLAS utilisant des électrons. La seconde partie est consacrée à l’étude du couplage yt entre le boson de Higgs et le quark top. L’étude présentée dans ce document cible une mesure directe du couplage yt grâce au mode de production du boson de Higgs en association avec une paire de quark top (t¯tH). Sept canaux multileptoniques, visant principalement les décroissances du boson de Higgs H → WW∗ et H → fifi, ont été étudiés avec les 36:1 fb−1 de données collectées par l’expérience ATLAS au cours des années 2015 et 2016. Ce document décrit l’étude du canal le plus sensible au couplage, comptant deux leptons de même charge électrique dans l’état final. La discrimination du bruit de fond repose sur des analyses multivariées et l’apprentissage de la machine. La stratégie d’optimisation est présentée et les résultats détaillés pour le canal 2‘SS. La combinaison de tous les canaux associés à la production t¯tH a rendu possible la mise en évidence, puis l’observation de ce processus par les expériences ATLAS et CMS. L’analyse multileptonique pour la recherche de production t¯tH a été adaptée à la recherche de changement de saveur du quark top avec émission de courant neutre, interdit à l’ordre de l’arbre. Les canaux 2‘SS et 3‘ sont étudiés et leurs résultats combinés. Les limites supérieures posées sur les rapports d’embranchement des processus B(t → Hu) et B(t → Hc) sont de 0.19% et 0.16%, respectivement, et les plus basses à l’heure de leur obtention
The Large Hadron Collider (LHC) at CERN (European Organization for Nuclear Research) enables physics exploration at subatomic level. After shutting down for planned maintenance in early 2013, the LHC restarted in June 2015, increasing luminosity and centre of mass energy from 8 to 13 TeV. The first part of this document is dedicated to the electron reconstruction efficiency measurement with the ATLAS detector using 27:7 fb−1 of data collected in 2016. In the intense hadronic environment, leptons are markers of interest for many processes. Precise measurements of their reconstruction efficiency are then crucial. Measurement method and background estimates are detailed for electrons, and results are computed in both data and Monte Carlo simulation samples. Electron reconstruction efficiency varies from 97% to 99%. The measurement accuracy is at the percent and per mille level at low energy and ET > 20 GeV, respectively. Those results have been used in all ATLAS physics analyses involving electrons. The second part of this manuscript focuses on the Higgs boson coupling yt to the top quark. The analysis aims at a direct measurement of the coupling yt from the associated production of the Higgs boson with a top quark-antiquark pair (t¯tH). Seven multileptonic channels, mainly targetting Higgs boson decays H → WW∗ and H → fifi, have been studied using 36:1 fb−1 of proton-proton collision data collected in 2015 and 2016. This document focuses on the most sensitive one for the measurement, characterized by a final state with two same-charge leptons. Background discrimination is based on machine learning with multivariate analysis (MVA) techniques. The optimisation strategy is described and results detailed for the 2‘SS channel. Combining all t¯tH studied decay channels, the ATLAS and CMS experiments independently claimed an evidence, and then observation for the t¯tH process. The same methodology has been used in the search for flavour changing neutral currents in top-quark decays, forbidden at tree level. The 2‘SS and 3‘ channels are optimized and their results are combined. The current best upper limits on the branching ratios B(t → Hu) and B(t → Hc) have been set to 0.16% and 0.19%, respectively
APA, Harvard, Vancouver, ISO, and other styles
34

Beaupère, Nicolas. "Étude du système électronique pour le projet du HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l’expérience CMS du LHC." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10162/document.

Full text
Abstract:
Ce manuscrit décrit mon travail de thèse au sein de l’expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j’ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHCqui prévoit une augmentation de la luminosité instantanée d’un facteur cinq. Une telle augmentation et la conservation du système de haut niveaudu déclenchement (HLT), engendre de nouvelles contraintes sur le détecteurCMS. Notamment au niveau du système de déclenchement électronique. Lacollaboration CMS envisage d’implanter ce dernier au sein du détecteur detraces. Deux méthodes de déclenchement sont proposées : la méthode des modules empilés et la méthode des mémoires associatives. La méthode desmémoires associatives necessite toutefois une présélection intéligente des signauxélectriques pour être utilisable. La méthode de la largeur des amas estproposée conjointement par l’équipe de Fabrizio Palla (Pise) et par l’équipede Didier Contardo (IPNL) pour présélectionner les signaux. L’optimisation de cette méthode, en particulier des paramètres géométriques des modules etdes seuils appliqués pour la présélection des signaux électrique, est le résultatde mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l’analyse des données récoltées par CMS durant l’année 2011. Cette analyse a pour objectif de rechercher de nouvellesparticules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérantdans de nombreuses extensions du Modèle Standard. L’observation de résonances étroites dans le spectre pourrait en être le signe. L’analyseest subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travailsont des limites sur la section efficace de production de nouvelles particules.Ils sont présentés dans la partie IV du manuscrit
This manuscript describes my thesis work within the CMS experiment ofthe LHC collider. It presents both subjects on which I worked : a detectorsubject and a data analysis subject. The first subject, detector, is situated within the framework of the HL-LHCproject which plans an increase by a factor five the instantaneous luminosity.Such an increase and the preservation of the high level trigger (HLT)system, generate new constraints on the CMS detector. This is particularly true for the electronic trigger (L1) system. The CMS collaboration intends to implant this within tracker detector. Two methods are proposed : the stubmodules method and the associative memorie method. However, associativememorie method require a clever preselection of electric signals to be usable.The cluster width method is jointly proposed by Fabrizio Palla’s team (Pisa) and by Didier Contardo’s team (IPNL) to preselecte electric signals. The optimization of this method, in particular geometrical parameters of modules and thresholds applied for the electric signals preselection, is the result of myown work. It is detailed throughout the part III of this manuscript. The second subject concerns the analysis of data collected by CMS during 2011. This analysis has for objective to look for new particles in the spectreof anti-top top invariant mass. Due to its big mass, close to the electroweak symmetry breaking energy, the top quark plays a important role in numerous extensions of the Standard Model. The observation of narrow resonances in the spectre could be the sign of new particles. The analysis is subdivided into three parts, the selection of top anti-top events, the reconstruction of top anti top invariant mass and a statistical study to quantify the presence of new physics. The results of this work are limits on the cross-section productionof new particles. They are presented in the part IV of this manuscript
APA, Harvard, Vancouver, ISO, and other styles
35

Agarwal, Deepesh. "Sur quelques problèmes algorithmiques relatifs à la détermination de structure à partir de données de spectrométrie de masse." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4048/document.

Full text
Abstract:
La spectrométrie de masse, initialement développée pour de petites molécules, a permis au cours de la dernière écoulée d’étudier en phase gazeuse des assemblages macro-moléculaires intacts, posant nombre de questions algorithmiques difficiles, dont trois sont étudiées dans cette thèse. La première contribution concerne la détermination de stoichiométrie (SD), et vise à trouver le nombre de copies de chaque constituant dans un assemblage. On étudie le cas où la masse cible se trouve dans un intervalle dont les bornes rendent compte des incertitudes des mesures des masses. Nous présentons un algorithme de taille mémoire constante (DIOPHANTINE), et un algorithme de complexité sensible à la sortie (DP++), plus performants que l’état de l’art, pour des masses en nombre entier ou flottant. La seconde contribution traite de l’inférence de connectivité à partir d’une liste d’oligomères dont la composition en termes de sous-unités est connue. On introduit le problème d’inférence de connectivité minimale (MCI) et présente deux algorithmes pour le résoudre. On montre aussi un accord excellent entre les contacts trouvés et ceux détermines expérimentalement. La troisième contribution aborde le problème d’inférence de connectivité de poids minimal, lorsque chaque contact potentiel a un poids reflétant sa probabilité d’occurrence. On présente en particulier un algorithme de bootstrap permettant de trouver un ensemble d’arêtes de sensitivité et spécificité meilleures que celles obtenues pour les solutions du problème MCI
Mass spectrometry (MS), an analytical technique initially invented to deal with small molecules, has emerged over the past decade as a key approach in structural biology. The recent advances have made it possible to transfer large macromolecular assemblies into the vacuum without their dissociation, raising challenging algorithmic problems. This thesis makes contributions to three such problems. The first contribution deals with stoichiometry determination (SD), namely the problem of determining the number of copies of each subunit of an assembly, from mass measurements. We deal with the interval SD problem, where the target mass belongs to an interval accounting for mass measurement uncertainties. We present a constant memory space algorithm (DIOPHANTINE), and an output sensitive dynamic programming based algorithm (DP++), outperforming state-of-the-art methods both for integer type and float type problems. The second contribution deals with the inference of pairwise contacts between subunits, using a list of sub-complexes whose composition is known. We introduce the Minimum Connectivity Inference problem (MCI) and present two algorithms solving it. We also show an excellent agreement between the contacts reported by these algorithms and those determined experimentally. The third contribution deals with Minimum Weight Connectivity Inference (MWCI), a problem where weights on candidate edges are available, reflecting their likelihood. We present in particular a bootstrap algorithm allowing one to report a set of edges with improved sensitivity and specificity with respect to those obtaining upon solving MCI
APA, Harvard, Vancouver, ISO, and other styles
36

Ferrara, Valentina. "Extraction of the top quark mass from the total top quark pair production cross section in the single lepton channel." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät I, 2013. http://dx.doi.org/10.18452/16727.

Full text
Abstract:
In dieser Arbeit wird eine Messung des totalen {\ttb} Produktions-Wirkungsquerschnitts im Einzellepton-Kanal vorgestellt. Der Wirkungsquerschnitt wird mittels einer Profile-Likelihood-Anpassung von Templates bestimmt, welche \"uber einen Lieklihood-Klassifikator unter Benutzung von vier kinematischen Variablen konstruiert werden. F\"ur ein Top-Quark der Masse $m_t=172.5$ GeV ergibt sich ein gemessener Wirkungsquerschnitt von $178.9 \pm 12$ pb, welcher innerhalb einer Standardabweichung mit den aktuellsten theoretischen Vorhersagen \"uberein stimmt. Um die Massenabh\"angigkeit des experimentellen Wirkungsquerschnitts zu bestimmen, wird die Messung f\"ur sieben weitere Werte der Top-Quarkmasse im Bereich zwischen 140 GeV und 200 GeV wiederholt. Mittels Vergleich dieser Massenabh\"angigkeit mit theoretischen Vorhersagen h\"oherer Ordnung wird die Top-Quarkmasse ermittelt. Diese Methode erlaubt die Bestimmung von zwei verschiedenen theoretischen Massenparametern: der Top-Quarkmasse im On-Shell-Schema $m_t^{\mathrm{pole}}$ sowie der Masse im $\overline{MS}$-Schema $\overline{m}_t(\overline{m}_t)$. Der Messwert mit der h\"ochsten erhaltenen Genauigkeit liegt bei $m_t^{\mathrm{pole}} = 171.2\pm 4.5$ GeV, und wird durch Verwendung der derzeit pr\"azisesten Berechnungen h\"oherer Ordnung im $\overline{MS}$-Schema erhalten. Dieser Wert stimmt innerhalb einer Standardabweichung mit den derzeitig besten Mittelwert von Messungen der Top-Quarkmasse am Tevatron \"uberein.
A measurement of the total {\ttb} production cross section in the single lepton channel is presented. The cross section is extracted in a profile likelihood fit of templates constructed from a likelihood classifier using four kinematic variables. For a top quark of mass $m_t=172.5$ GeV, the measured cross section is $178.9 \pm 12$ pb. The measurement agrees within one-standard deviation with the latest theoretical predictions. The cross section measurement is repeated for seven other values of the top quark mass ranging from 140 GeV to 200 GeV to obtain the mass dependence of the experimental cross section. By comparing this with the mass dependence of different higher-order predictions, the top quark mass is extracted. This method allows the determination of two different theoretical mass parameters: the top quark mass in the on-shell scheme $m_t^{\mathrm{pole}}$ and in the $\overline{MS}$ scheme $\overline{m}_t(\overline{m}_t)$. The most precise measurement obtained is $m_t^{\mathrm{pole}} = 171.2\pm 4.5$ GeV, obtained when employing the most precise higher-order calculations in the $\overline{MS}$ scheme. This value agrees within one-standard deviation with the latest Tevatron average of the best top quark mass measurements.
APA, Harvard, Vancouver, ISO, and other styles
37

Noh, Suzie. "An exploration of two accounting-based models for earnings misstatements and their implications for stock returns." Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/90228.

Full text
Abstract:
Thesis: M. Fin., Massachusetts Institute of Technology, Sloan School of Management, Master of Finance Program, 2014.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 56-59).
Using two popular accounting-based models for earnings manipulation (i.e., the Beneish M-Score and the Dechow F-Score) and the financial data of public companies from 2004 to 2012, 1 find that the M-Score (F-Score) predicts less (more) earnings overstatements during the recent financial crisis in 2007-2008 than other sample years. However, a detailed investigation at the industry level reveals that this does not hold in all industries. I further show that the potential misstating firms flagged by the M-Score tend to under-perform the market both at the aggregate and the industry level, and some of those flagged by the F-Score under-perform at the industry level. Finally, by running Fama-French three-factor regressions at the aggregate level, I provide evidence that the firms flagged by the MScore generally yield negative risk-adjusted stock returns. The evidence suggests public availability of financial statements alone does not ensure that all the elements of financial statements are fully integrated into prices in a timely manner. Overall, this study provides substantial support for the use of quantitative accounting analysis in equity trading.
by Suzie Noh.
M. Fin.
APA, Harvard, Vancouver, ISO, and other styles
38

Yoon, Suck Ju. "Contribution a l'etude de la diffusion avec transfert de masse de gouttelettes dans un ecoulement gazeux turbulent." Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR13070.

Full text
Abstract:
Etude de la diffusion et de l'evaporation d'un liquide (freon) injecte sous forme de gouttelettes dans un ecoulement d'air turbulent. Mesures de vitesse et de taille des particules par des methodes optiques non intrusives
APA, Harvard, Vancouver, ISO, and other styles
39

Théry, Solène. "Mesure de la section efficace de production de paires de quarks top auprès de l'expérience D0 au Tevatron et détermination de la masse du quark top à l'aide de cette mesure." Paris 6, 2010. http://www.theses.fr/2010PA066669.

Full text
Abstract:
Le quark top a été découvert en 1995 par les collaborations CDF et D0 auprès du collisionneur proton-antiproton du Tevatron. Aujourd'hui, la quantité de données analysables par chaque expérience permet d'étudier avec précision ce quark : sa masse est ainsi connue à mieux que 1%. Cette thèse présente la mesure de la section efficace de production de paires de quarks top dans le canal électron-muon avec un échantillon de données de 4,3 fb-1 enregistrées entre 2006 et 2009 par l'expérience D0. L'état final contenant un muon, l'amélioration de leur identification a été effectuée en étudiant d'une part la contamination des muons cosmiques et d'autre part la qualité des traces des muons. La mesure de la section efficace est en accord avec les prédictions théoriques ainsi qu'avec l'ensemble des autres mesures expérimentales. Cette mesure a ensuite été utilisée pour extraire une valeur de la masse du quark top. Cette méthode permet l'obtention d'une masse mieux définie théoriquement que dans le cas des mesures directes dans la mesure car elle dépend moins de la simulation des événements. L'incertitude sur la masse extraite, dominée par l'incertitude expérimentale, est beaucoup plus élevée que celle sur la mesure directe. Une étude des corrélations théoriques de la section efficace de production du boson Z et celle de paires de top a été faite pour vérifier si une diminution de l'ince
APA, Harvard, Vancouver, ISO, and other styles
40

Bray, Fabrice. "La spectrométrie de masse haute résolution : application à la FT-ICR bidimensionnelle et à la protéomique dans les domaines de l’archéologie et la paléontologie." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10189.

Full text
Abstract:
La spectrométrie de masse est une méthode d’analyse qui permet de travailler sur une large gamme d’échantillons. Elle est utilisée dans de nombreux domaines de recherche comme la chimie analytique, la protéomique, la lipidomique et la métabolomique…Dans un premier temps, mon travail s’est focalisé sur le développement d’une méthode indépendante d’analyse de données par spectrométrie de masse à transformée de Fourier bidimensionnelle. Pour augmenter la résolution en première dimension, une analyse FT-ICR 2D avec un échantillonnage non uniforme (NUS) a été développée. L’augmentation de la résolution dans la première dimension a permis l’obtention d’une haute résolution pour les ions précurseurs. La FT-ICR 2D a été utilisée avec succès pour l’analyse de triacylglycérols contenus dans du plasma mais aussi pour l’analyse d’échantillons archéologiques.Dans un second temps, une stratégie protéomique conjointe bottom-up et top-down a été appliquée à l’analyse d’échantillons archéologiques et paléontologiques à partir d’ossements ou de céramiques. Le développement d’une méthodologie bottom-up, a permis à partir d’ossements archéologiques d’espèces inconnues l’identification des protéines et leurs modifications chimiques. Cet ossement a pu être attribué comme appartenant à l’espèce Homo sapiens. Une analyse top-down a été utilisée pour l’analyse d’échantillons archéologiques. Pour la première fois, une protéine (la caséine de lait) a été identifiée dans un échantillon archéologique d’amphore de l’époque de l’empereur Claude (1er siècle de notre ère) grâce la détection de grands fragments de caséine
Mass spectrometry is a method of analysis which works on a wide range of sample types. It is used in many research fields such as analytical chemistry, proteomics, lipidomics and metabolomics...Firstly, my work was dedicated to the development of an independent data analysis methodology based on two-dimensional Fourier transform mass spectrometry. For increasing the resolution on the first dimension a 2D FT-ICR analysis with non-uniform sampling was developed. The resolution increase in the first dimension leading to high resolution for the precursor ions. The 2D FT-ICR has been successfully applied for the analysis of triacylglycerol contained on plasma and also for archaeological samples. This methodology led to 2D maps allowing a rapid classification of plants or animals samples.Secondly, a joint bottom-up and top-down proteomics strategy was applied for the analysis of archaeological and paleontological samples from bones or ceramics. The development of a bottom-up methodology, allowed the identification of proteins and their chemical modifications from archeological bones. These bones have been attributed to Homo sapiens. The development of a top-down methodology was applied to the analysis of archaeological ceramic. For the first time, a protein (milk casein) was identified in an archaeological sample of an amphora from Claudius emperor era (1st century A.D) via the detection of large fragments of casein. This first application of the top down proteomics showed that new information can be provided such as the in situ molecular degradation
APA, Harvard, Vancouver, ISO, and other styles
41

Carneiro, RÃmulo Farias. "Lectinas da esponja marinha Haliclona (Soestella) caerulea." Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=12028.

Full text
Abstract:
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico
Lectinas podem ser definidas como proteÃnas/glicoporteÃnas que reconhecem carboidratos de maneira especÃfica, mas nÃo participam do metabolismo dos mesmos e nÃo pertencem a nenhuma das principais classes de imunoglobulinas. As lectinas sÃo proteÃnas ubÃquas, estando presente em todos os organismos conhecidos. Em cÃlulas animais, lectinas tÃm sido encontradas no citoplasma, no nÃcleo e associadas a membranas das mais diversas organelas e nos mais variados tipos celulares. Tais lectinas animais podem ser classificadas em famÃlias distintas com base em suas caracterÃsticas fÃsico quÃmicas, funÃÃo e especialmente em sua identidade de estrutura primÃria e terciÃria. O objetivo deste trabalho foi purificar duas novas lectinas da esponja marinha Haliclona (Soestella) caerulea e caracterizar estruturalmente uma delas. EspÃcimes de H.caerulea foram coletados na praia do paracuru, CearÃ. Duas lectinas (H-1 e H-3) foram isoladas por tÃcnicas clÃssicas de quÃmica de proteÃnas. A estrutura primÃria de uma delas foi determinada por espectrometria de massas e RACE. A atividade tÃxica das lectinas foi avaliada frente à nÃuplios de Artemia e cepas das bactÃrias Escherichia coli e Staphylococus aureus. H-1 e H-3 apresentaram caracterÃsticas distinhas da lectina previamente isolada de H. caerulea. H-1 à uma proteÃna monomÃrica de aporoximadamente 40 kDa enquanto que H-3 à uma proteÃna trimÃrica com cadeias com massa aproximada de 9, 16 e 18 kDa. H-3 aglutina eritrÃcitos humanos do tipo A e B e foi inibida GalNAc e PSM, H-1 aglutina diversos grupos sanguineos e nÃo pÃde ser inibida por nenhum aÃÃcar testado. H-1 foi tÃxica a naÃplios de Artemia (LC50=6,4 μg.mL-1) e H-3 foi considerada nÃo tÃxica (LC50=414,2 μg.mL-1). H-3 à uma proteÃna azul, pois interage com um cromÃforo de 597 Da com absorÃÃo mÃxima a 620 nm. A estrutura primÃria de H-3 foi determinada e revelou-se Ãnica, nÃo sendo conhecida nenhuma lectina com estrutura similar. H-3 apresenta um glicano hÃbrido composto por Hex7NAcHex7DeoxiHex2. A cadeia α de H-3 sofre um processamento proteolÃtico complexo que ainda nÃo foi completamente elucidado. AlÃm disso, H-3 foi cristalizada, mas nÃo foi possÃvel a obtenÃÃo de um padraÃo de difraÃÃo que permita a resoluÃÃo da estrutura. Em suma, duas novas lectinas foram isoladas e fora observado pela primeira vez a interaÃÃo entre uma lectina e um cromÃforo natural. Pela primeira vez tambÃm, fora determinada a composiÃÃo glicÃdica de uma lectina de esponja.
Lectins are proteins/glycoproteins that recognize carbohydrate of a specific way, but not participate in the metabolism of the same and do not belong to any of major classes of immunoglobulins. Lectins are ubiquitous proteins, present in all known organisms. In animal cells, lectins have been found in the cytoplasm, in the nucleous and as membrane-associated proteins, in diverse organelles and cells. Animal lectins can be classified into distinct families based on their physicochemical characteristics, especially in their function and identity of primary and tertiary structure. The aim of this study was to purify, characterize structural and biologically new lectins from the marine sponge Haliclona (Soestella) caerulea. H. caerulea specimens were collected in Paracuru beach, CearÃ. Two lectins (H-1 and H-3) were isolated by classical techniques of protein chemistry. The primary structure of H-3 was determined by mass spectrometry and RACE. The toxic activity of lectins was evaluated against Artemia nauplii and Escherichia coli and Staphylococcus aureus strains. H-1 and H-3 showed distinct characteristics of the lectin previously isolated from H. caerulea. H-1 is a monomeric protein of 40 kDa whereas H-3 is a heterogeneus protein with chains of 9, 16 and 18 kDa. H-3 binds human erythrocytes of A and B type and was inhibited by GalNAc and PSM, H-1 binds different blood groups and could not be inhibited by any sugar tested. H-1 was toxic to Artemia nauplii (LC50 = 6.4 μg.mL-1) and H-3 was not considered toxic (LC50 = 414.2 μg.mL-1). H-3 is a blue protein that interacts with a chromophore of 597 Da of maximum absorbance at 620 nm. The primary structure of H-3 revealed a unique amino acid sequence no similar to any animal lectins known. H-3 has a hybrid glycan comprising by Hex7NAcHex7DeoxiHex2. The α-chain of H-3 undergoes complex proteolytic processing that not been fully elucidated. Moreover, H-3 was crystallized, but was not possible to obtain a diffraction pattern that permits solving the structure. In short, two new lectins were isolated and out first observed the interaction between a lectin and natural chromophore. Furthermore, for the first time given the composition glicidic out of a sponge lectin.
APA, Harvard, Vancouver, ISO, and other styles
42

Carlier, Julien. "Schémas aux résidus distribués et méthodes à propagation des ondes pour la simulation d’écoulements compressibles diphasiques avec transfert de chaleur et de masse." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLY008/document.

Full text
Abstract:
Ce travail a pour thème la simulation numérique d’écoulements diphasiques dans un contexte industriel. En effet, la simulation d’écoulements diphasiques est un domaine qui présente de nombreux défis, en raison de phénomènes complexes qui surviennent, comme la cavitation et autres transferts entre les phases. En outre, ces écoulements se déroulent généralement dans des géométries complexes rendant difficile une résolution efficiente. Les modèles que nous considérons font partie de la catégorie des modèles à interfaces diffuses et permettent de prendre en compte aisément les différents transferts entre les phases. Cette classe de modèles inclut une hiérarchie de sous-modèles pouvant simuler plus ou moins d’interactions entre les phases. Pour mener à bien cette étude nous avons en premier lieu comparé les modèles diphasiques dits à quatre équations et six équations, en incluant les effets de transfert de masse. Nous avons ensuite choisi de nous concentrer sur le modèle à quatre équations. L’objectif majeur de notre travail a alors été d’étendre les méthodes aux résidus distribués à ce modèle. Dans le contexte des méthodes de résolution numérique, il est courant d’utiliser la forme conservative des équations de bilan. En effet, la résolution sous forme non-conservative conduit à une mauvaise résolution du problème. Cependant, résoudre les équations sous forme non-conservative peut s’avérer plus intéressant d’un point de vue industriel. Dans ce but, nous utilisons une approche développée récemment permettant d’assurer la conservation en résolvant un système sous forme non-conservative, à condition que la forme conservative soit connue. Nous validons ensuite notre méthode et l’appliquons à des problèmes en géométries complexes. Finalement, la dernière partie de notre travail est dédiée à étudier la validité des modèles à interfaces diffuses pour des applications à des problèmes industriels réels. On cherche alors, en utilisant des méthodes de quantification d’incertitude, à obtenir les paramètres rendant nos simulations les plus vraisemblables et cibler les éventuels développements pouvant rendre nos simulations plus réalistes
The topic of this thesis is the numerical simulation of two-phase flows in an industrial framework. Two-phase flows modelling is a challenging domain to explore, mainly because of the complex phenomena involved, such as cavitation and other transfer processes between phases. Furthermore, these flows occur generally in complex geometries, which makes difficult the development of efficient resolution methods. The models that we consider belong to the class of diffuse interface models, and they allow an easy modelling of transfers between phases. The considered class of models includes a hierarchy of sub-models, which take into account different levels of interactions between phases. To pursue our studies, first we have compared the so-called four-equation and six-equation two-phase flow models, including the effects of mass transfer processes. We have then chosen to focus on the four-equation model. One of the main objective of our work has been to extend residual distribution schemes to this model. In the context of numerical solution methods, it is common to use the conservative form of the balance law. In fact, the solution of the equations under a non-conservative form may lead to a wrong solution to the problem. Nonetheless, solving the equations in non-conservative form may be more interesting from an industrial point of view. To this aim, we employ a recent approach, which allows us to ensure conservation while solving a non-conservative system, at the condition of knowing its conservative form. We then validate our method and apply it to problems with complex geometry. Finally, the last part of our work is dedicated to the evaluation of the validity of the considered diffuse interface model for applications to real industrial problems. By using uncertainty quantification methods, the objective is to get parameters that make our simulations the most plausible, and to target the possible extensions that can make our simulations more realistic
APA, Harvard, Vancouver, ISO, and other styles
43

Beaupère, Nicolas. "Etude du système de déclenchement électronique pour le projet HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l'expérience CMS du LHC." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00745211.

Full text
Abstract:
Ce manuscrit décrit mon travail de thèse au sein de l'expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j'ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHC qui prévoit une augmentation de la luminosité instantanée d'un facteur cinq. Une telle augmentation et la conservation du système de haut niveau du déclenchement (HLT), engendre de nouvelles contraintes sur le détecteur CMS. Notamment au niveau du système de déclenchement électronique. La collaboration CMS envisage d'implanter ce dernier au sein du détecteur de traces. La méthode des mémoires associatives est proposée. Elle nécessite toutefois une présélection intelligente des signaux électriques pour être utilisable. La méthode de la largeur des amas est proposée pour présélectionner les signaux. L'optimisation de cette méthode, en particulier des paramètres géométriques des modules et des seuils appliqués pour la présélection des signaux électrique, est le résultat de mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l'analyse des données récoltées par CMS durant l'année 2011. Cette analyse a pour objectif de rechercher de nouvelles particules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérant dans de nombreuses extensions du Modèle Standard. L'observation de résonances étroites dans le spectre pourrait en être le signe. L'analyse est subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travail sont des limites sur la section efficace de production de nouvelles particules. Ils sont présentés dans la partie IV du manuscrit.
APA, Harvard, Vancouver, ISO, and other styles
44

Tannoury, Nancy. "Calibration des algorithmes d’identification des jets issus de quarks b et mesure de la section efficace différentielle de production de paires t ¯t en fonction de la masse et de la rapidité du système t ¯t dans les collisions p-p à √s = 7 TeV auprès de l’expérience ATLAS au LHC." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4105.

Full text
Abstract:
Le Modèle Standard de la physique des particules décrit les particules elementaires et leurs interactions avec une grande précision. Il décrit trois des quatre interactions fondamentales connues entre les particules elementaires : les interactions faibles, fortes et électromagnétiques. Le Modèle standard fournit aussi une description précise des interactions électrofaibles jusqu’à des échelles d’énergie qui ont été étudies dans les expériences de physique de haute énergie. Les interactions ainsi que les désintégrations d'un grand nombre de particules découvert et observe tout au long des expériences différentes dans les 50 dernières années sont également décrites. En dépit de son succès, le Modèle Standard est loin d’être une théorie complète des interactions fondamentales car il n’intègre pas la théorie complète de la gravitation telle que décrite par la relativité générale, ni la prédiction de l’accélération de l'expansion de l'univers (qui pourrait être décrite par l’énergie noire). La théorie ne contient aucune particule de matière noire viable qui possède toutes les propriétés déduites de la cosmologie observationnelle. Également, elle ne prend pas en compte les oscillations de neutrinos (et leurs masses non nulles). On pense que la nouvelle physique doit exister conduisant a de nouvelles particules et phénomènes. L’échelle a laquelle cette nouvelle physique devrait apparaıtre n'est pas bien connue, cependant plusieurs arguments soulignent l’échelle du TeV et nécessitent une très haute énergie et des puissants collisionneurs de hadrons. Le Large Hadron Collider (LHC) est le plus grand accélérateur et collisionneur de particules existant
The Standard Model of particle physics is very successful in describing elementary particles and their interactions with a great precision. It describes three of the four known fundamental interactions between elementary particles : the weak, the strong and the electromagnetic interactions. The Standard Model also provides an accurate description of the electroweak interactions up to energy scales that have been explored in high energy physics experiments. The interaction and decay of a large number of particles discovered and observed throughout different experiments in the last 50 years are also described. Despite its great success, the Standard Model falls short of being a complete theory of fundamental interactions because it does not incorporate the full theory of gravitation as described by general relativity, or predict the accelerating expansion of the universe (as possibly described by dark energy). The theory does not contain any viable dark matter particle that possesses all of the required properties deduced from observational cosmology. It also does not account for neutrino oscillations (and their non-zero masses). It is thought that new physics should exist leading to new particles and phenomena. The scale at which this new physics should appear is not well known, though several arguments point to the TeV scale and require a very high energy and powerful hadron collider. The Large Hadron Collider (LHC) is the biggest existing particle accelerator and collider. It is designed to provide proton-proton collisions with an unprecedented center-of-mass energy of 14 TeV, with instantaneous luminosities up to 10^{34} cm−2s−1
APA, Harvard, Vancouver, ISO, and other styles
45

Guterres, Sheila Barreto. "Busca de biomarcadores para esquizofrenia em plaquetas utilizando eletroforese diferencial em gel bidimensional (2D-DIGE) e espectrometria de massas." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/75/75132/tde-16112011-150931/.

Full text
Abstract:
A esquizofrenia é uma doença crônica, grave e incapacitante que afeta cerca 24 milhões de pessoas em âmbito mundial. É caracterizada por uma desorganização no pensamento que prejudica a funcionalidade do indivíduo. Existem intervenções que são efetivas e contribuem para a diminuição da prevalência do transtorno, pois ajudam o portador a levar uma vida produtiva e integrada à sociedade, porém devem ser ministradas nos estágios iniciais da doença. No entanto, existe uma grande dificuldade em se diagnosticar a esquizofrenia precocemente devido a sua complexidade e às sutilezas dos seus sintomas apresentados antes do surgimento da psicose. O cérebro não é acessível a exames invasivos in vivo e por esse motivo a exploração de fluidos periféricos é de grande importância. As plaquetas e neurônios serotonérgicos possuem características bioquímicas e morfológicas em comum que possibilitam a comparação entre a estrutura e a função de ambos e, por causa dessa similaridade, muitos trabalhos utilizam plaquetas como modelo para o estudo de doenças neuropsiquiátricas, inclusive a esquizofrenia. A detecção precoce da esquizofrenia é um objeto de investigação atual e relevante não somente para revolucionar os meios atuais de diagnóstico, mas também para desenvolver novos tratamentos aplicados aos estágios iniciais da doença, diferenciar os subgrupos de doentes e monitorar as intervenções preventivas. A proposta do presente trabalho é fazer o estudo da expressão de proteínas em plaquetas de pacientes esquizofrênicos e controles com o objetivo de identificar proteínas candidatas a biomarcadores utilizando técnicas proteômicas quantitativas e confiáveis, como 2D-DIGE e a espectrometria de massas.
Schizophrenia is a disabling, serious, and chronic illness, which affects about 24 million people worldwide. It is characterized by a severe disorganization of the thoughts that harms the social life of patients becoming them dependent of the family and/or government. There are effective treatments that contribute to decrease the prevalence of the disorder because they improve the life and social conditions of the patients, but they are only advantageous if the intervention is made in the early stages of the disease. It is difficult to obtain early diagnosis due to the complexity of the disease and its insidious symptoms before the beginning of the psychosis. The brain is not easily accessed in vivo and, because of this, it is very important to study the peripheral tissues like blood, which makes the use of the platelets very interesting. Furthermore, platelets and serotonergic neurons share biochemical and morphological characteristics that allows the comparison between structure and function of both. From these similarities many authors has used platelets as a neuron model to study many neurodegenerative diseases including schizophrenia. The early detection of schizophrenia is a current and suitable goal, not only to improve the early diagnosis but also to develop new treatments, differentiate the subtypes, and monitor the preventive interventions. The purpose of this project is to do a comparative screening of expressed proteins in platelets from schizophrenics and controls with the objective of finding differently expressed proteins that could be candidates to biomarkers using 2D-DIGE and mass spectrometry.
APA, Harvard, Vancouver, ISO, and other styles
46

Carlson, Olof, Viktor Thunmarker, and Mikael Zetterberg. "Exploring Swedish Hospitals’ Transition towards becoming more Data-Driven : A Qualitative Case Study of Two Swedish Hospitals." Thesis, Uppsala universitet, Företagsekonomiska institutionen, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-176517.

Full text
Abstract:
The Swedish health care sector must improve productivity in order to deal with anincreased demand from an aging population with limited resources. In the traditiondriven health care sector, transitioning towards becoming more data-driven has beenidentified as a potential solution. This explorative qualitative case study explores howindividual employees perceive this development at two Swedish hospitals. The resultscomplement theory by presenting propositions that explains drivers and barriers ofthe transition, but also the outcomes of it as perceived by the employees. The studyprimarily concludes that (1) a lack of trust in data and a tradition to base decisions ongut feelings in conjunction with low IT competence make hospital culture a majorobstacle for the transition, and that (2) it is important to understand the employees’perceived outcomes of becoming data-driven as it affects their support of thetransition. The results provide a platform for future research to build on and arevaluable for practitioners as they seek to utilize the drivers and mitigate the barriers.
APA, Harvard, Vancouver, ISO, and other styles
47

Faridkhou, Ali. "Hydrodynamic and mass transfer study of micro-packed beds in sigle-and two-phase flow." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26118.

Full text
Abstract:
Les micros-lit fixes sont des milieux poreux miniaturisés ralliant les avantages à la fois des microréacteurs et des lits fixes, comme par exemple en terme de rapport surface/volume très élevé conduisant à des taux de transfert de chaleur et de matière intensifiés. Par conséquent, la caractérisation hydrodynamique des micro-lits fixes est nécessaire afin d’appréhender de manière objective les phénomènes de transfert et les modes de contact entre phases. Ensuite l'importance des micro-lits fixes est mise en évidence tandis que les approches pour construire des bases de recherche sur les micro-lits fixes y sont explicitées. Notre recherche commence par l'étude des régimes d'écoulement, des transitions de régime d'écoulement de la multiplicité de l’hydrodynamique et du transfert de matière liquide-solide dans les micro-lits fixes. Cette étude est réalisée au moyen d’une méthode de visualisation par microscopie optique à la paroi et le traitement d’image qui s’en suit pour la partie hydrodynamique et d’une méthode électrochimique basée sur l’oxydoréduction du couple complexes ferri/ferreux hexacyanure pour la partir sur le transfert de matière. Les résultats de perte de charge et de rétention de liquide ont été discutés par rapport aux régimes d’écoulement mis en place et des observations pariétales rendues possibles par microscopie optique. L'effet de la taille des particules et de la géométrie du canal sur les transitions de régimes d’écoulement, le comportement transitoire et le phénomène d'hystérèse ont également été abordés. Finalement, les résultats des expériences hydrodynamiques ont été obtenus en faisant face à de nombreux défis pour lesquels nous avons formulé de nombreuses recommandations en vue d’investigations futures. La détermination expérimentale du coefficient de transfert de masse liquide-solide (kLS) par la technique électrochimique a été effectuée dans un micro-lit fixe rempli de couches de particules de graphite non-sphériques servant de cathode et d'anode. Les expériences ont été réalisées pour un écoulement monophasique en régime de diffusion limitée. Finalement, la correspondance de valeurs de kLS avec les corrélations construites sur la base d’études sur les lits fixes à l’échelle macroscopique a été discutée.
Micro-packed beds are miniaturized packed beds having the advantages of both microreactors (high surface-to-volume ratios leading to intensified heat and mass transfer rates, increased safety, etc.) and packed beds (effective contact between the phases) that have the potential to be successfully employed for purposes such as catalyst screening and production of hazardous materials. To assess this potential, hydrodynamic characterization of micro-packed beds is necessary as they address the actual flow phenomena and provide suggestions to improve the contacting patterns between phases for enhanced performances. This work starts with a brief review on process intensification via microreactors. Then the importance of micro-packed beds is highlighted while the approaches to build research foundations on micro-packed beds are discussed. Our research begins by studying the flow regimes, transitions in flow regime and hydrodynamic multiplicity in micro-packed beds mostly by means of microscopic wall visualization and image processing. Results on pressure drop and liquid holdup have been obtained and discussed in terms of flow regimes and wall-flow image analyses. In addition, residence time distributions of the liquid in micro-packed beds have been obtained according to two techniques, by an impulse tracing method (electrolyte tracer injection) and wall visualization with optical microscopy. The effect of particle size and channel geometry (circular vs. square) has also been investigated in terms of flow regime transitions, transient behavior and hysteresis. Finally, challenges and recommendations thereof to surpass the many difficulties encountered are methodically explained to facilitate future investigations. Experimental determination of liquid-solid mass transfer coefficient (kLS) via a linear polarization method was also carried out in a micro-packed bed filled with layers of non-spherical graphite particles serving as cathode and anode for the Redox ferri/ferrocyanide electrochemical reaction. Experiments concerned single-phase liquid flow within the diffusion-limited regime. Particle size analysis and image processing were used to evaluate deviations from spherical geometry of the graphite particles to determine liquid-solid mass transfer coefficient. Finally, the correspondence of kLS values with macro-scale packed bed correlations was discussed.
APA, Harvard, Vancouver, ISO, and other styles
48

Haugene, Kristian, and Alexander Jacobsen. "Network based QoE Optimization for "Over The Top" Services." Thesis, Norges teknisk-naturvitenskapelige universitet, Institutt for telematikk, 2011. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-13118.

Full text
Abstract:
This report focuses on the quality aspects of media delivery over the Internet. Weinvestigate the constructs of Knowledge Plane, Monitor Plane and Action Planeas controlling functions for the Internet. Our goal is to implement functionality formonitoring services in a home network, allowing the router to reason and take actionsto obtain an optimal traffic situation based on user preferences. The actions takento alter ongoing traffic are implemented in a modular router framework called Click.We will use this router to affect the media stream TCP connections into behavingin accordance with the networks optimal state. New features are implemented tocomplement the functionality found in Click, giving us the tools needed to obtainthe wanted results.Our focus is on adaptive video streaming in general and Silverlight SmoothStreaming in particular. Using custom Silverlight client code, we implemented asolution which allows the applications to report usage statistics to the home gateway.This information will be used by the home gateway to obtain an overview of traffic inthe network. Presenting this information to the user, we retrieve the user preferencesfor the given video streams. The router then dynamically reconfigures itself, andstarts altering TCP packets to obtain an optimal flow of traffic in the home network.Our system has been implemented on a Linux PC where it runs in its currentform. All the different areas of the solution, ranging from the clients, router, Knowl-edge Plane and traffic manipulation elements are put together. They form a workingsystem for QoE/QoS optimization which we have tested and demonstrated. In ad-dition to testing the concept on our own streaming services, the reporting featurefor Silverlight clients has also been implemented in a private build of TV2 Sumo.This is the Internet service of the largest commercial television station in Norway.Further testing with the TV2 Sumo client has given promising results. The systemis working as it is, although we would like to see more complex action reasoning toimprove convergence time for achieving the correct bit rate.
APA, Harvard, Vancouver, ISO, and other styles
49

Cooper, Haydn. "Two generator discrete groups of isometries and their representation : a thesis presented in partial fulfillment of the requirements for the degree of Master of Science in Mathematics at Massey University, Albany, New Zealand." Massey University, 2008. http://hdl.handle.net/10179/973.

Full text
Abstract:
Let M Φ and Mψ be elements of PSL(2,C) representing orientation preserving isometries on the upper half-space model of hyperbolic 3-space Φ and ψ respectively. The parameters β = tr2(M Φ) - 4, β1 = tr2(Mψ) - 4, γ = tr[M Φ,Mψ] - 2, determine the discrete group (Φ ,ψ) uniquely up to conjugacy whenever γ ≠ 0. This thesis is concerned with explicitly lifting this parameterisation of (Φ , ψ) to PSO(1, 3) realised as a discrete 2 generator subgroup of orientation preserving isometries on the hyperboloid model of hyperbolic 3-space. We particularly focus on the case where both Φ and ψ are elliptic.
APA, Harvard, Vancouver, ISO, and other styles
50

Tamrakar, Sandeep. "Study of TCP friendliness of CEAS routing system in comparison with Distance Vector Routing and Link State Routing." Thesis, Norwegian University of Science and Technology, Department of Telematics, 2009. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9043.

Full text
Abstract:

With the continuous development of the Internet technologies new routing requirements have surfaced. In response, several adaptive, stochastic routing algorithms have been purposed. The Cross Entropy Ant System (CEAS) is an adaptive, robust and distributed routing and management system based on the swarm intelligence. Several prototype implementations and enhancements have been made on this system, however the level of TCP friendliness the CEAS may provide is yet an important issue. In order to investigate the level of TCP friendliness, the behavior of the CEAS system during different network dynamics needs to be understood. For this reason, the behavior of the CEAS system under different network event and its corresponding effects on TCP performance is examined first using a simple network. Later the level of TCP performance is measured on complex networks. Also the load sharing capabilities of the CEAS system is investigated the efficiency of the system to manage and update according to the network load. Additionally the results are compared against the results obtained from the standard Link State Routing protocol and the Distance Vector Routing protocol under similar conditions. In this work, we find that the update process in response to the change in network dynamics is slower on CEAS compared to the other systems. However, the update process speeds up with the increase in the ant rates. During such period the use of multiple path reduces the TCP performance. We also find that large amount of packets loop around some links during link failures. Such looping reduces the TCP performance significantly. However, implementing previous hop memory technique removes such loops and also help TCP resume transmission immediately after the link failure. Compare to the LSRP and the DVR, we find that CEAS manages network resources more efficiently to produce higher TCP performance. We find that the CEAS diverts the data traffic on the basis of the quality of the path rather than the length of the path. We also find that the CEAS system handles multiple TCP stream independently with equal priority. But the smaller transition delay on the ants compared to the data packet reduces the TCP performance to some extent. However, forcing the ants to experience longer queuing delay according to the traffic load improves the TCP performance as well as helps CEAS update more accurately.

APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography