To see the other types of publications on this topic, follow the link: Perception de la luminosité.

Dissertations / Theses on the topic 'Perception de la luminosité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Perception de la luminosité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Salvano-Pardieu, Véronique. "Etudes des mécanismes intervenant dans la formation des figures illusoires à un niveau précoce de traitement." Paris 5, 1996. http://www.theses.fr/1996PA05H063.

Full text
Abstract:
A travers les expériences de cette thèse, nous avons cherché à comprendre quels sont les mécanismes qui interviennent dans la formation des figures illusoires. Les recherches réalisées jusqu'à présent en psychophysique ont montré que deux aspects phénoménaux différents sont présents dans une figure illusoire comme la figure d'Ehrenstein. Ces deux aspects sont : l'effet de luminosité et l'information de contour. D'autre part, certaines figures formées d'éléments alignes comme des points ou des tirets génèrent également une illusion de luminosité et de contour, ce qui suppose l'existence d'un mécanisme intégrateur capable de relier entre eux des éléments alignes et intervenant également dans la formation des figures illusoires. Au moyen de méthodes psychophysiques nous avons cherché à déterminer le rôle et les caractéristiques propres de ces mécanismes ainsi que les limites spatiales au-delà desquelles ils ne seraient plus actives. Nous faisions l'hypothèse que le premier mécanisme appelé + operateur de colinéarité ; serait capable d'intégrer en une ligne des éléments colinéaires. Une fois ces éléments intégrés, un second opérateur, + l'opérateur de luminosité ; serait à l'origine de l'augmentation de luminosité de la surface; enfin, un troisième operateur appelé + operateur de terminaison ; ou + bipole ; serait à l'origine de la forme du contour illusoire. Les résultats obtenus dans les six expériences de cette thèse sont conformes aux hypothèses présentées et montrent que les mécanismes à l'origine de la formation des figures illusoires sont situés à un bas niveau de traitement et que les caractéristiques des figures illusoires dépendent de la structure neuronale et des caractéristiques physiologiques de ces mécanismes. Le recours aux niveaux cognitifs n'est donc pas nécessaire pour expliquer la formation des figures illusoires
In these experiments we wanted to understand the mechanisms which are involved in the formation of illusory figures. The research realized in psychophysic shows that two different characteristics are present in the illusory figures such as in the ehrenstein figure. These two characteristics are : brightness effect and contour information. Moreover, figures generated by aligned and closed dashes or dots, show a brightness and contour illusion as well. For this reason, we assume the existence of a mechanism able to integrate together the aligned dots or dashes, with psychophysic methods, we determined the characteristics of these mechanisms and the spatial limits beyond which these mechanisms will be no more activated and the illusion will be no more perceived. We assume that the first mechanism called "collinearity operator" could integrate in a line collinear dots or dashes. After this integration a second operator (brightness operator) would be able to generate brightness illusion of the surface by integration of the simultaneous contrast present at the end of each line. Finally, a third operator called "dipole" would allow to generate the illusory contour by linking the end of the lines side by side. The results obtained with the six experiments of this thesis are consistent with these hypotheses, and show that the mechanisms involved in the formation of illusory figures are present at a low treatment level. Indeed, the characteristics of the illusory figures depend of the neuronal structure and of the physiologic characteristics of these mechanisms. Thus, the explanation at a high treatment level is not necessary to explain the formation of the illusory figures
APA, Harvard, Vancouver, ISO, and other styles
2

Dubois, Catherine. "Confort et diversité des ambiances lumineuses en architecture : l'influence de l'éclairage naturel sur les occupants." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23949/23949.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Frisson, Thibault. "Mesure de la luminosité pour l'expérience H1." Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00166327.

Full text
Abstract:
Depuis le début du fonctionnement de HERA, la mesure de la luminosité est réalisée en détectant les photons de bremsstrahlung émis par les électrons dans la région d'interaction. En raison des nouvelles conditions de fonctionnement, un nouveau détecteur de photons pour le système de luminosité de H1 a été développé et installé dans le tunnel à 104 mètres du point d'interaction. L'objet de cette thèse est d'analyser les données enregistrées par le détecteur de photons et d'étudier les variations de la luminosité dans H1 au cours des prises de données. Les méthodes de calcul de l'échelle d'énergie et de l'acceptance présentées dans cette thèse permettent de déterminer ces grandeurs toutes les quatre minutes avec une précision de l'ordre de 0,5 pour mille pour l'échelle d'énergie et de l'ordre de 2 pour mille pour l'acceptance. La position et la largeur du faisceau sont également mesurées toutes les quatre minutes avec une précision de l'ordre de 0,01 mm pour la position et de l'ordre de 0,05 mm pour la largeur. Ces résultats permettent de calculer la luminosité instantanée toutes les quatre minutes avec une erreur de l'ordre de 6,5 à 9,5 pour mille. Ces résultats sont en cours de validation pour devenir la méthode standard dans H1.

J'ai également étudié les événements Compton élastique. La diffusion Compton élastique est utilisée pour une mesure complémentaire de la luminosité car sa section efficace est connue avec une bonne précision et la signature des événements dans le détecteur H1 est facilement identifiable.
APA, Harvard, Vancouver, ISO, and other styles
4

Hopchev, Plamen. "Mesures de la luminosité absolue à l'expérience LHCb." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00684982.

Full text
Abstract:
Les mesures de la luminosité intégrée pour les expériences auprés de collisionneur ont un intérêt majeur. Ces mesures participent à la détermination des sections efficaces de production des processus étudiés, elles quantifient également les performances de l'accélérateur et des expériences. Deux méthodes ont été utilisées par l'expérience LHCb pour déterminer la mesure de la luminosité absolue enregistrée durant la campagne 2010 de prise de données des collisions proton-proton à une énergie de 7 TeV dans le centre de masse: outre la méthode classique applelée "Van der Meer scan" une nouvelle technique est développée permettant une détermination directe des paramètres de chaque faisceau en localisant les interactions faisceau-faisceau et les interactions faisceau-gaz résiduel. Cette méthode n'est possible que grace à la résolution du détecteur de vertex de LHCb et sa proximité avec la zone des faisceaux de protons et les paramètres tels la position, les angles et les largeurs des faisceaux peuvent être mesurés. Les deux methodes sont décrites et leurs résultats discutés. De plus les techniques utilisées pour étendre les mesures de luminosité absolue à l'ensemble de la prise de données 2010 sont décrites.
APA, Harvard, Vancouver, ISO, and other styles
5

Segretain, Laurent. "Cristallisation, fonction luminosité et coalescence des naines blanches." Lyon 1, 1994. http://www.theses.fr/1994LYO10355.

Full text
Abstract:
L'observation de la fonction luminosite des naines blanches permet d'obtenir l'age du disque galactique a partir de modeles theoriques. Les modeles actuels predisent un age de l'ordre de 9 gyr, alors que d'autres methodes donnent 13 a 15 gyr (amas globulaires par exemple). Le but de la premiere partie de ma these est de prendre en compte le phenomene de sedimentation des elements lors de la cristallisation du cur des naines blanches, ce phenomene n'etant pas pris en compte dans les modeles actuels. Je montre que la prise en compte de ce phenomene conduit a un age du disque galactique de 11 a 12 milliards d'annees, ce qui resoud le paradoxe precedent. Dans la seconde partie de la these j'etudie la coalescence de systemes binaires de naines blanches afin de caracteriser l'objet resultant et de savoir si ce phenomene explique l'origine de certaines naines blanches chaudes, massives et isolees. Pour cela j'ai developpe un code lagrangien (sph: smooth particules hydrodynamic) a trois dimensions incluant la gravitation. Je montre que la coalescence peut expliquer l'origine de ces naines blanches, sous certaines conditions: perte de moment angulaire, source d'energie supplementaire, accretion d'une couche hydrogene apres la coalescence
APA, Harvard, Vancouver, ISO, and other styles
6

Ilbert, Olivier. "Formation et évolution de populations de galaxies à grand décalage spectral : fonctions de luminosité du relevé VVDS." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11055.

Full text
Abstract:
Cette thèse présente la mesure des fonctions de luminosité (LF) des galaxies de z = 0. 05 jusqu'à z = 2 avec les données du VIMOS-VLT Deep Survey (VVDS). Ces mesures apportent une contrainte forte sur les scénarios décrivant la formation et l'évolution des galaxies. La mesure du "redshift" des galaxies est nécessaire pour étudier leur évolution. Je présente tout d'abord une nouvelle méthode de calibration qui améliore considérablement la qualité des "redshifts" photométriques, méthode que j'applique aux données photométriques multi-couleur du VVDS. Je décris ensuite l'acquisition, la réduction, puis la mesure des redshifts spectroscopiques d'un premier échantillon profond (IAB ≤ 24) de 10759 spectres du VVDS, le plus large échantillon profond jamais acquis. L'estimation de LF nécessite un traitement complexe dû aux effets de correction-k, de sélection, de correction de l'incomplétude spectroscopique, de différence de visibilité entre les types de galaxies. Dans le cadre du VVDS, j'ai développé l'outil ALF (Algorithm for Luminosity Function) qui permet l'estimation de la LF et de la densité de luminosité (LD). Je présente cet outil que j'ai développé dans un souci de flexibilité (jeu de filtres, de "templates" ,cosmologie, etc. ). L'application de ALF à l'échantillon spectroscopique du VVDS nous a permis de mesurer la LF globale jusqu'à z = 2 dans le domaine spectral visible. Cette mesure est prolongée en UV lointain avec les données VVDS-GALEX. L'ensemble de ces mesures montrent une très forte décroissance de la luminosité caractéristique des galaxies avec l'âge de l'univers et traduisent la forte décroissance du taux de formation d'étoiles. Finalement, je présente l'évolution de la LF et de la LD en fonction du type des galaxies.
APA, Harvard, Vancouver, ISO, and other styles
7

Savine, Christine. "Etude de la fonction de luminosité de l'amas de COMA." Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11011.

Full text
Abstract:
La fonction de luminosité (FL) est une description fondamentale de la population de galaxies. Au sein d'un amas tel que l'amas de COMA, elle permet de connaître le nombre de galaxies par intervalle de magnitude et ainsi d'étudier la population de faible luminosité. Je présenterai dans cette thèse un nouveau sondage profond de l'amas de COMA et les traitements des données effectués. L'analyse des images grand champ (40'X1ʿ) permettra d'étudier in situ les effets d'environnement et ses conséquences sur l'universalité de la fonction de luminosité. Trois parties seront consacrées aux différentes méthodes de décontamination des galaxies d'arrière plan : la soustraction statistique, la relation couleur magnitude (CMR) avec l'emploi de redshifts spectroscopiques connus, et enfin les redshifts photométriques. L'ensemble de ces résultats montre un accord, aux faibles magnitudes, entre la pente de la FL obtenue via la CMR et la pente de la FL obtenue par la méthode des redshifts photométriques. L'étude par région de la FL montre que les effets d'environnement sont partout présents au sein d'un amas aussi riche que celui de COMA. La ségrégation de type morphologique ainsi qu'un manque de galaxies faibles au cœur de l'amas sont confirmés
APA, Harvard, Vancouver, ISO, and other styles
8

Borgnolutti, Franck. "Aimants quadripolaires supraconducteurs pour l'augmentation de la luminosité du grand collisionneur de hadrons." Thesis, Vandoeuvre-les-Nancy, INPL, 2009. http://www.theses.fr/2009INPL070N/document.

Full text
Abstract:
Le travail effectué dans cette thèse a pour thème central la conception d’un aimant quadripolaire supraconducteur en Nb-Ti destiné à remplacer à l’horizon 2014 les aimants d’insertions actuellement utilisés dans le grand collisionneur de Hadrons (LHC) du CERN de Genève. Ce nouveau quadripôle, caractérisé par un diamètre d’ouverture encore jamais atteint (120 mm), ouvre la voie vers les quadripôles à grandes ouvertures. Tout d’abord, pour rapidement estimer l’énergie magnétique stockée dans un quadripôle de type cos2?, une formule analytique basée sur la décomposition en série de Fourier du courant et permettant d’estimer l’énergie avec une précision de 10 % est développée. Le design magnétique de la section transverse de la bobine du quadripôle est ensuite réalisé en utilisant une nouvelle méthode d’optimisation basée sur les équations analytiques du champ magnétique. Puis, pour la première fois, une estimation de la reproductibilité dans le positionnement des blocs de conducteurs dans des aimants Nb3Sn est faite. Elle a été réalisée à l’aide d’une méthode existante et grâce à la production récente de deux séries d’aimants Nb3Sn. Une comparaison avec les valeurs obtenues pour des aimants en Nb-Ti est présentée. Ensuite, une méthode analytique basée sur les statistiques et permettant d’expliquer certains phénomènes observés sur la dispersion des mesures magnétiques dans une série de quadripôles est développée. Enfin, on montre que l’incertitude sur la moyenne des harmoniques de champ est due pour la majorité des harmoniques à un phénomène statistique lié au nombre limité d’aimants dans la série et non à des erreurs systématiques
The main objective of the work presented in this thesis is the design of a quadrupole magnet based on Nb-Ti. It aims at replacing the current insertion quadrupoles used in the Large Hadron Collider (LHC) at CERN by 2014. This new quadrupole features an unprecedented large aperture (120 mm) and opens the way toward large aperture quadrupoles. First, to rapidly estimate the magnetic energy stored in a cos2?-type quadrupole, an analytical formula based on the Fourier transform of the current is developed. It allows estimating the energy with a precision of 10 %. Secondly, the magnetic design of the quadrupole coil cross-section is realized using a novel optimization method based on analytical equations of the magnetic field. Subsequently, for the first time, an estimate of the reproducibility in the coil-blocks positioning in Nb3Sn magnets is given. The estimate has been obtained by using an existing method and from tow recently built Nb3Sn magnet series. A comparison with values obtained for Nb-Ti magnets is also presented. Following this, an analytical method based on statistics is developed. It makes possible to explain some phenomenon observed on the dispersion of the magnetic measurement in a quadrupole series. Finally, we show that the uncertainty in the mean of the magnetic field errors is for most of the harmonics related to statistical errors due to the limited number of magnets in the series, and not because of systematic defects in the coil
APA, Harvard, Vancouver, ISO, and other styles
9

L'Homme, Denis. "La fonction de luminosité et la fonction de masse initiale de l'amas d'étoiles S247D." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ56755.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ségransan, Damien. "Les étoiles de très faible masse du voisinage solaire : multiplicité et relation masse-luminosité." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10082.

Full text
Abstract:
Les etoiles de tres faible masse (vlms) constituent la population stellaire dominante de la galaxie et pourtant leurs proprietes fondamentales (fonction de luminosite, taux de multiplicite, masse et luminosite) sont encore mal connues. Toutefois, les progres technologiques realises sur les detecteurs infrarouges (sensibilite et taille), en haute resolution angulaire (interferometrie des tavelures, optique adaptative) ainsi qu'en spectroscopie a haute resolution permettent maintenant d'entreprendre des etudes systematiques de ces objets froids. La recherche de compagnons autour des vlms situees a moins de 9. 25pc dans l'hemisphere nord a ete poursuivie par optique adaptative et par mesure de vitesse radiale precise. Cette strategie est optimisee pour la detection des compagnons de tres faible masse jusqu'au domaine sub-stellaire des naines brunes pour des separations de 0. 05 ua a 330 ua. A partir des resultats de ce suivi, j'ai determine un taux de binarite de 28,6% 4. 7 pour les naines m ce qui laisse presager une dependance du taux de binarite en fonction de la masse de l'etoile primaire. Pour des separations de 0. 9 ua a 4. 0 ua a 9. 25pc, le suivi de naines m multiples par mesure de vitesse radiale et par imagerie a permis de determiner les masses de 16 naines m avec une precision superieure a quelques pourcent et de nettement ameliorer la relation masse-luminosite de la tres basse sequence principale. Enfin, j'expose en detail les observations possibles liees aux objets de tres faible masse qui pourront etre conduites dans un futur proche sur le vlti : d'une part la mesure directe des rayons de naines m les plus proches et d'autre part la determination des parametres orbitaux des binaires les plus serrees. Je m'interesse, finalement a la detection des planetes extra-solaires geantes irradiees par la mesure de la cloture de phase.
APA, Harvard, Vancouver, ISO, and other styles
11

Dereli, Hüsne. "Découverte et étude d'une population de sursauts gamma cosmiques à décroissance de faible luminosité." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4130/document.

Full text
Abstract:
Les explosions gamma (GRB) sont des évènements extrêmement violents. Ils sont sommairement classifiés en deux groupes par leur durée : les courts et les longs. Cette classification a permis de déterminer l'origine des GRBs : une collision entre deux objets compacts pour les courts ou l'explosion d'une étoile très massive pour les longs. Une meilleure classification des GRBs longs pourrait mieux contraindre leurs propriétés. Dans ma thèse, je présente des évidences de l'existence d'une sous-classification des GRBs basés sur la faible luminosité de leurs derniers reflets. Ces explosions sont appelées Low-Luminosity Afterflow (LLA). Je présente la technique de réduction des données, la méthode de sélection de ces GRBs ainsi que leurs principales propriétés. Leur lien avec les supernovæ (SN) est mis en évidence car 64 % de tous les GRBs associés à des Sns sont des LLA GRBs. Finalement, je présente d'autres propriétés comme leur fréquence, qui semble indiquer une nouvelle distincte classe, les propriétés de leurs galaxies hôte qui montrent que ces explosions ont pour origines des galaxies formant beaucoup d'étoiles. De plus, je montre qu'il est difficile de réconcilier les différences entre les GRBs normaux et les LLA GRBs en ne considérant que des effets instrumentaux et environnementaux, ou bien une géométrie différente. Donc je conclue que les deux classes de GRBs ont des propriétés différentes. En basant l'argumentation sur la fonction de masse initiale, sur la fréquence des LLA GRBs et sur le type de SNs qui les accompagnent, j'indique qu'un système binaire est favorisé pour leur origine
Gamma-ray bursts (GRB) are extreme events. They are crudely classified into two groups based on their duration, namely the short and long bursts. Such a classification has proven to be useful to determine their progenitors: the merger of two compact objects for short bursts and the explosion of a massive star for long bursts. Further classifying the long GRBs might give tighter constraints on their progenitor and on the emission mechanism(s). In my thesis, I present evidence for the existence of a sub-class of long GRBs, based on their faint afterglow emission. These bursts were named low-luminosity afterglow (LLA) GRBs. I discuss the data analysis and the selection method, and their main properties are described. Their link to supernova is strong as 64\% of all the bursts firmly associated to SNe is LLA GRBs. Finally, I present additional properties of LLA GRBs: the study of their rate density, which seems to indicate a new distinct third class of events, the properties of their host galaxies, which show that they take place in young star-forming galaxies. Additionally, I show that it is difficult to reconcile all differences between normal long GRBs and LLA GRBs only by considering instrumental or environmental effects, different ejecta content or a different geometry for the burst. Thus, I conclude that LLA GRBs and normal long GRBs should have different properties. In a very rudimentary discussion, I indicate that a binary system is favored in the case of LLA GRB. The argument is based on the initial mass function of massive stars, on the larger rate density of LLA GRBs compared to the rate of normal long GRBs and on the type of accompanying SNe
APA, Harvard, Vancouver, ISO, and other styles
12

Arfaoui, Samir. "Système haute-tension du calorimètre à argon liquide du détecteur ATLAS : mise en oeuvre, optimisation, et mesure de luminosité du LHC." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22081/document.

Full text
Abstract:
Un des principaux objectifs de l'expérience ATLAS auprès du LHC est l'observations ou l'exclusion de nouvelle physique au-delà du Modèle Standard, en passant par les mesures de sections efficaces de production de processus du Modèle Standard. Sachant que le taux de production d'une particule dépends de sa section efficace de production ainsi que de la luminosité, il est necessaire de mesurer cette luminosité avec une grande précision. L'expérience ATLAS possède plusieurs détecteurs capable de mesurer la luminosité, dont les deux principaux: LUCID (Luminosity measurement Using Cerenkov Integrating Detector), et BCM (Beam Condition Monitor). Ces détecteurs sont calibrés absolument pendant des prises de données dédiées appelés van der Meer scans, qui ont permis d'obtenir une erreur systématique sur la détermination de la luminosité de 3.4% en 2010. Afin d'obtenir un maximum de différentes approches à la luminosité, plusieurs autres détecteurs contribuent aux différentes comparaisons. Ce document présente les calorimètres à argon liquide du détecteur ATLAS, et en particulier la mise en route et l'opération de leur système haute-tension. Il est montré qu'en mesurant les courant de ce système haute-tension pendant les prises de données de collisions de protons, il est possible d'obtenir des signaux proportionnels a la luminosité. En calibrant ces courants par rapport a un autre luminomètre, il est montré que cette calibration est stable au niveau de 0.5%
The main goals of the ATLAS scientific programme are the observation or exclusion of physics beyond the Standard Model (SM), as well as the measurement of production cross-sections of SM processes. As the rate of events N of a given physics process is linked to the cross-section through the luminosity, it is important to measure the luminosity with great precision. The ATLAS experiment has two major luminosity monitors, LUCID (Luminosity measurement Using Cerenkov Integrating Detector), which consists of Cerenkov tubes located around the beam axis 17m away from the interaction point, and BCM (Beam Condition Monitor) which is a diamond-based detector and has both beam-abort and luminosity capabilities. As these detectors provide a relative luminosity measurement, they were absolutely calibrated in 2010 using the van der Meer procedure, achieving a total systematic uncertainty of 3.4%. The ultimate plan is to provide an absolute calibration using the ALFA detector during a run with special beam optics. In order to provide more cross-checks and a better control on the systematic uncertainties, other luminosity handles are always needed. In particular, an independent measurement using the liquid argon forward calorimeter (FCal), based on the readout current of its high-voltage system, has been developed. This document presents the commissioning and operations of the ATLAS liquid argon calorimeter high-voltage system, as well as its usage to perform a luminosity determination. Analysis of the high-voltage currents during LHC collisions and comparisons with other luminosity detectors have led to a calibration of these currents with a precision better than 0.5%
APA, Harvard, Vancouver, ISO, and other styles
13

Liu, Jian. "Etude d'un détecteur pixel monolithique pour le trajectographe d'ATLAS auprès du LHC de haute luminosité." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4015/document.

Full text
Abstract:
Prévue pour 2024, une série d’améliorations doit être apportée au grand collisionneur d’hadrons du CERN (LHC) de manière à élargir son potentiel de découverte de nouvelle physique. Cette thèse se situe dans la perspective des études d’amélioration du détecteur ATLAS dans ce nouvel environnement, et concerne une nouvelle technologie monolithique HV/HR CMOS qui pourrait être utilisée pour les détecteurs de traces centraux pixélisés. Cette technologie a le potentiel de permettre la réduction de l’épaisseur des détecteurs, d'augmenter la granularité ainsi que de réduire les couts de production.Au sein de la collaboration HV/HR CMOS d’ATLAS, divers prototypes ont été développés en utilisant les technologies de différents partenaires industriels : GlobalFoundries (GF) BCDlite 130 nm et LFoundry (LF) 150 nm entre autres. Pour comprendre le comportement électrique et la capacité de détection de telles technologies, des simulations TCAD -Technology Computer Aided Design- en 2D et 3D ont été réalisées pour extraire le profil de la zone déplétée, la tension de claquage, la capacitance ainsi que la collection de charges ionisées des prototypes. Le développement de systèmes de test complexes et la caractérisation des prototypes HV/HR CMOS ont aussi été une partie du travail fourni pour cette thèse. Les programmes d’acquisition, en particulier pour ce qui concerne les tests sous protons ou auprès d’irradiateurs à rayons X, ainsi que les programmes de réglages de seuil ont été implémenté dans divers systèmes de test. Plusieurs versions des prototypes développés dans 3 technologies HV/HR CMOS différentes (AMS 0.18 μm HV, GF BCDlite 130nm et LF 150nm) ont été caractérisées
A major upgrade to the Large Hadron Collider (LHC), scheduled for 2024 will be brought to the machine so as to extend its discovery potential. This PhD is part of the ATLAS program and aims at studying a new monolithic technology in the framework of the design of an upgraded ATLAS inner tracker. This new type of sensor is based on a HV/HR CMOS technology, which would potentially offer lower material budget, reduced pixel pitch and lower cost with respect to the traditional hybrid pixel detector concept.Various prototypes have been developed using different HV/HR CMOS technologies from several industrial partners, within the ATLAS HV/HR collaboration, for instance Global Foundry (GF) BCDlite 130 nm and LFoundry (LF) 150 nm. In order to understand the electric behavior and the detection capabilities of these technologies, 3D and 2D Technology Computer Aided Design (TCAD) simulations have been performed to extract the depletion zone profile, the breakdown voltage, the leakage current, the capacitance as well as the charge collection of the prototypes. Test setup developments and characterizations of the HV/HR CMOS prototypes were also part of this thesis. The data acquisition programs, in particular dedicated to the proton test beams, X-ray sources and threshold tuning, have been implemented into various test setups. Several HV/HR CMOS prototypes developed in three HV/HR technologies, AMS 0.18 µm HV, GF BCDlite 130 nm and LF 150 nm, have been characterized
APA, Harvard, Vancouver, ISO, and other styles
14

Barthes, Dominique. "Pseudo-périodicité des étoiles variables de type Mira : prévisions de luminosité, spectres de puissance, interprétation théorique." Montpellier 2, 1992. http://www.theses.fr/1992MON20228.

Full text
Abstract:
Les etoiles de type mira presentent des variations de luminosite pseudo-periodiques et de grande amplitude. Pour cette raison, elles ne pouvaient etre incluses dans le programme d'observation du satellite hipparcos qu'a condition que soient fournies des ephemerides lumineuses valables durant toute la mission. Dans ce but, une methode permettant une prevision fiable des courbes de lumieres a ete specialement mise au point. Ainsi cette zone particulierement importante du diagramme h-r peut-elle etre exploree par hipparcos. La methode de prevision inclut le calcul de spectres de puissances de series chronologiques avec donnees manquantes. Ceux-ci sont de qualite suffisante pour que l'on tente une interpretation theorique donnant la nature du mode principal de pulsation de ces etoiles. De plus, sans avoir besoin de connaitre leur distance, on obtient des valeurs indicatives de leurs parametres physiques intrinseques, fondamentaux pour leur evolution. Cette interpretation est presente en detail pour quelques etoiles. Une composante de leur spectre de puissance semble liee a leur atmosphere
APA, Harvard, Vancouver, ISO, and other styles
15

El, Khechen Dima. "Fast Luminosity Monitoring Using Diamond Sensors for SuperKEKB." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS565/document.

Full text
Abstract:
SuperKEKB est un collisionneur à très haute luminosité construit pour l’expérience Belle II, constitué d’un anneau de basse énergie (LER) transportant des positrons de 4 GeV et d’un anneau de haute énergie (HER) où circulent des électrons de 7 GeV. Sa mise en service -ou commissioning- se déroulera en trois phases : La phase 1, durant laquelle des faisceaux circulent sans être focalisés au point de collision, a pour but de nettoyer la chambre à vide du gaz résiduel. La seconde phase, où le détecteur Belle II sera en partie installé, permettra le réglage du système de focalisation finale des faisceaux, jusqu’à atteindre une luminosité de 10³⁴ cm⁻² s⁻¹. La troisième phase correspondra au démarrage de l’expérience Belle II avec une luminosité visée de 10³⁵ cm⁻² s⁻¹ à 8×10³⁵ cm⁻² s⁻¹. Dans ce cadre, ma thèse porte sur la conception et la mise en place d’un système permettant le monitorage rapide de la luminosité, système nécessaire pour pouvoir corriger en temps réel les instabilités des faisceaux et ainsi maintenir une luminosité optimale. Afin d’atteindre la haute précision relative souhaitée, de l’ordre de 10⁻³ en 1 ms, la mesure sera basée sur le taux de comptage des particules issues de la diffusion Bhabha radiative à angle nul, processus bien connu et dont la section efficace est importante. Ces particules seront détectées au moyen d’un capteur en diamant, matériau résistant aux radiations et permettant une acquisition très rapide du signal, situé à l’extérieur de la chambre à vide et en aval du point d’interaction. La première partie de cette thèse est consacrée à la recherche des localisations optimales pour le positionnement des capteurs diamants dans chacun des deux anneaux. Au moyen de simulations détaillées, nous avons étudié la dynamique des particules Bhabha lors de leur transport dans les anneaux ainsi que leur interaction avec la matière de la chambre à vide. Ces études ont permis d’ une part d’ identifier un emplacement à 11.9m dans le LER et un autre à 30 m dans le HER, et d’autre part de redéfinir pour l’une d’ entre elle la géométrie locale du tube à vide. La seconde partie, plus expérimentale, s’articule autour de la première phase du commissioning de SuperKEKB et des mesures réalisées au moyen des capteurs diamants que nous avons installés. Dans un premier temps, une étude détaillée des processus de perte single beam (Bremsstrahlung, effet Touschek, diffusion coulombienne) a été réalisée pour le LER en fonction des paramètres du faisceau et du collisionneur (courant, pression, taille transverse des faisceaux). Dans un deuxième temps les résultats de cette étude ont été comparés aux données que nous avons prises de février à juin 2016. Nous avons pu mettre en évidence un bon accord qualitatif et quantitatif entre nos simulations et nos mesures. Cela nous a permis d’estimer que le niveau de bruit de fond attendu dans le cadre des mesures pour le monitorage de la luminosité sera de plus de deux ordres de grandeurs inférieurs au taux du processus Bhabha radiatif à angle nul
SuperKEKB is a very high luminosity collider dedicated to the Belle II experiment, it consists of a Low Energy Ring (LER) of 4 GeV positrons and a High Energy Ring (HER) of 7 GeV electrons. The commissioning of this machine is split into three phases: phase 1 (single-beam phase) is dedicated to vacuum scrubbing, where beams circulate without focusing at the collision point. Phase 2, for which the major part of the Belle II detector will be installed, will enable the tuning of the final focus system to achieve a luminosity of 10³⁴ cm⁻² s⁻¹. During phase 3, Belle II physics runs will start with an aimed luminosity up to 8×10³⁵ cm⁻² s⁻¹. In this context, the aim of my thesis is to develop and install a fast luminosity monitoring system, which is required for online correction of beam instabilities and maintenance of optimal luminosity. To reach the aimed relative precision of 10⁻³ in 1 ms, the measurement will be based on the radiative Bhabha process at zero photon scattering angle, whose cross-section is large and well-known. These particles will be detected using diamond sensors, resistant to radiation and enabling very fast signal acquisition, to be placed outside of the beam-pipe and downstream of the interaction point. The first part of this work is dedicated to the investigation of the best locations for the diamond sensor positioning in both rings. Using detailed simulations, we studied the dynamics of Bhabha particles during their tracking in the rings and their interaction with the beam pipe material. This led to the identification of two positions, at 11.9 m in LER and at 30 m in HER, and to considering a new geometry for the vacuum pipe in the LER. The second part is related to the phase 1 of the SuperKEKB commissioning and concerns the measurements performed with the diamond sensors that were installed. Single beam loss processes (Bremsstrahlung, Touschek, beam-gas Coulomb scattering) were studied in detail with respect to the LER beam and ring parameters (current, pressure, transverse beam sizes). The results of this study were then compared to the data collected from February to June 2016. We found good qualitative and quantitative agreement between our simulations and measurements. From this we could estimate that the level of background to be expected during luminosity monitoring will be two orders of magnitude smaller than the rate of the radiative Bhabha scattering signal
APA, Harvard, Vancouver, ISO, and other styles
16

White, Simon. "Determination of the absolute luminosity at the LHC." Paris 11, 2010. http://www.theses.fr/2010PA112145.

Full text
Abstract:
Les paramètres les plus importants pour les performances d'un collisionneur de particules sont l'énergie et la luminosité. Les hautes énergies permettent aux expériences de physique des particules d'étudier de nouveaux effets. La luminosité décrit la capacité du collisionneur à produire le nombre requis d'interaction utile ou événement. Le Large Hadron Collider (Grand Collisionneur de Hadron) ou LHC a été conçu pour produire des collisions proton proton à une énergie dans le centre de masse de 14 TeV. Cette énergie est la plus haute jamais atteinte jusqu'alors dans un accélérateur de particules. Les connaissances et la compréhension de la physique des particules à de telles énergies sont basées sur des simulations et des prédictions théoriques. Contrairement aux collisionneurs électron positron pour lesquels la section efficace de diffusion de Bhabba peut être précisément calculée et utilisée pour calibrer la luminosité, il n'existe pas de processus ayant une section efficace bien connu et un taux de production suffisant pour être utilisé afin de calibrer la luminosité durant les premières années d'opération du LHC. La luminosité peut aussi être exprimée en fonction du nombre de charges par faisceau et leur taille au point d'interaction. Il est donc possible d'utilise cette propriété afin de déterminer la luminosité à partir des paramètres machine. La détermination de la luminosité absolue à partir des paramètres machine est une méthode alternative à celle utilisant les sections efficaces et offre des informations complémentaires au modèle de fragmentation. Pour le LHC, il a été proposé d'utiliser la méthode développée par S. Van Der Meer à ISR afin d'offrir une calibration de la luminosité aux expériences de physique des particules durant les premières années d'opération. Cette thèse décrit comment cette méthode a été implémentée et utilisée pour la première fois au LHC afin d'optimiser et de calibrer la luminosité. Des études complémentaires d'optique linéaire et de dynamique faisceau ainsi que des mesures faites pour le collisionneur RHIC sont aussi décrites
For particle colliders, the most important performance parameters are the beam energy and the luminosity. High energies allow the particle physics experiments to study and observe new effects. The luminosity describes the ability of the collider to produce the required number of useful interactions or events. The Large Hadron Collider (LHC) was designed to produce proton proton collisions at a center of mass energy of 14 TeV. This energy is the highest ever reached in a particle accelerator. The knowledge and understanding of particIe physics at such high energy is based on simulations and theoretical predictions. As opposed to electron positron colliders, for which the Bhabba scattering cross section can be accurately calculated and used for luminosity calibration, there are no processes with well known cross section and sufficiently high production rate to be directly used for the purpose of luminosity calibration in the early operation of the LHC. The luminosity can also be expressed as a function of the numbers of charges per beam and the beam sizes at the interaction point. Using this relation the absolute luminosity can be determined from machine parameters. The determination of the absolute luminosity from machine parameters is an alternative to the cross section based calibration and provides complementary information to the fragmentation model. Ln the LHC, it was proposed to use the method developed by S. Van Der Meer at the ISR to provide a luminosity calibration based on machine parameters to the physics experiments during the first year of operation. This thesis presents how this method was implemented and performed for the first time in the LHC to optimize and calibrate the luminosity. Additional beam dynamics and optics studies and measurements performed at the RHIC collider will also be presented
APA, Harvard, Vancouver, ISO, and other styles
17

Wiefels, Alexandre. "Etude des relations entre la luminosité de l'eau et le paludisme dans l’État d’Amazonas en Amazonie brésilienne." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT185/document.

Full text
Abstract:
Le paludisme trouve dans la région amazonienne des conditions favorables à la transmission de la maladie, par un moustique vecteur qui est essentiellement l’Anophèles darlingi, se reproduisant en milieu aquatique. Ce moustique est connu pour sa grande adaptabilité aux conditions environnementales et en Amazonie, il est réputé être plus spécialement trouvé près des fleuves d’eau blanche (chargée en sédiments). La relation entre la présence du moustique et la couleur des eaux a été peu étudiée à l’échelle régionale. La présente étude a utilisé 11 années d’images MODIS à 250 m de résolution et un pas de temps mensuel, dont il a été extrait un indicateur de réflectance des eaux. D’autre part, ce travail de thèse exploite les données épidémiologiques du système de surveillance épidémiologique brésilien du paludisme. L’objectif principal est d’évaluer les corrélations entre la dynamique saisonnière de la réflectance des eaux et l’incidence parasitaire du paludisme sur différentes zones de l’État d’Amazonas afin notamment de comprendre l’influence de la couleur des eaux sur la présence du vecteur et donc la transmission du paludisme. Les résultats obtenus permettent de montrer que les notifications concernant le paludisme dans l’Etat d’Amazonas sont en effet corrélées aux eaux blanches, mais que les eaux noires ont aussi une corrélation avec l’incidence du paludisme, d’une façon sensiblement différente, à la fois dans le temps et dans l’espace. Ces résultats pourront être utiles à l’amélioration de notre compréhension des risques épidémiologiques dans cette région ainsi qu’à la mise en place de programme de surveillance plus efficaces, même si le facteur étudié, i.e. la couleur des eaux, n’est qu’un facteur parmi beaucoup d’autres qui influent sur le risque d’infection paludéen
Malaria in the Amazon region finds favorable conditions for the transmission of the disease by the mosquito vector Anopheles darlingi, which breeds in water. This mosquito is known for its great adaptability to environmental conditions. In the Amazon it is deemed to be especially found near rivers of white water (loaded with sediments). The relationship between the presence of the mosquito and water color has been little studied regionally. This study used 11 years of MODIS 250 m resolution and a monthly time base, which enable extracting a reflectance index of water. Secondly, this thesis uses the epidemiological data of the Brazilian system of epidemiological surveillance of malaria. The main objective is to evaluate the correlation between the seasonal dynamics of the reflectance of water and parasite incidence of malaria on different areas of the State of Amazonas in particular to understand the influence of water color on the presence of the vector and therefore the transmission of malaria. The results obtained show that notifications of malaria in the state of Amazonas are indeed correlated with white water, but the black water also have a correlation with the incidence of malaria, a substantially different way, since in the former case, the correlation is related to the flood, while in the case of black water, the presence of Anopheles and the flood are disconnected. These results may be useful in improving our understanding of epidemiological risks in the region and the establishment of more effective compliance program, even if the factor of interest, ie the color of the water is one factor among many others that affect the risk of malaria infection
APA, Harvard, Vancouver, ISO, and other styles
18

Heller, M. "Mesure de la luminosité absolue et de la section efficace totale proton-proton dans l'expérience ATLAS au LHC." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00491316.

Full text
Abstract:
Le Large Hadron Collider (LHC) au CERN à Genève délivrera bientôt des collisions avec une énergie jamais atteinte jusqu'alors dans un accélérateur de particules. Une énergie dans le centre de masse entre 10 et 14 TeV permettra de dépasser les frontières de la physique actuelle. Le détecteur ATLAS fera la chasse au boson de Higgs et recherchera une nouvelle physique au delà du modèle standard. Tout processus physique est décrit par sa section section efficace. Les détecteurs positionnés aux différents points de collision du LHC déterminerons les taux de comptage associés aux divers processus. Cependant, pour en déduire la section efficace associée, il faut connaître la luminosité. Pour l'expérience ATLAS, une mesure relative de la luminosité peut être fournie par quelques uns de ses sous-détecteurs. Cependant, pour calibrer ces détecteurs, une mesure absolue doit être effectuée. Le détecteur ALFA a été conçu pour mesurer le spectre de diffusion élastique qui permettra de déterminer la luminosité absolue et par la même occasion, la section efficace totale proton-proton fournissant ainsi un outils de calibration très précis, de l'ordre du %. Ces détecteurs, installés à 240 m de part et d'autre du point d'interaction sont appelés pots romains. Il s'agit d'un système mécanique permettant d'approcher un trajectographe à fibres scintillantes à une distance de l'ordre du millimètre du cœur du faisceau. La simulation de la mesure nécessite l'utilisation d'un logiciel de transport de particules chargées. Ce logiciel doit être soigneusement choisi car il sert à la détermination des protons perdus dans la séquence de l'accélérateur, entre le point d'interaction jusqu'aux détecteurs. L'impact des incertitudes systématiques qui affectent la mesure de la luminosité et de la section efficace totale est également déterminé en utilisant la simulation. Les détecteur ALFA opère dans un environnement complexe et en conséquence sa conception requiert une grande attention. Une large campagne de tests sur l'électronique front-end a été effectuée. L'analyses des données résultant de ces tests a permis de démontrer que toutes les exigences étaient remplies. A chaque avancement majeur dans la conception du détecteur, celui-ci doit être soumis à des tests en faisceau. Durant ces périodes, tous les aspects du détecteur sont étudiés. L'algorithme de reconstruction des traces, les méthodes pour extraire des données l'efficacité de détection ou encore le niveau de diaphonie sont autant de paramètres qu'il a fallu déterminer. Les conclusions de ces tests ont permis de valider les différents choix techniques effectués permettant ainsi le lancement de la fabrication en série des huit détecteurs utiles à la mesure. L'installation prévue courant 2011 permettra de mesurer la luminosité et la section efficace totale proton-proton courant 2012.
APA, Harvard, Vancouver, ISO, and other styles
19

Metge, Christian. "Une méthode d'illumination globale discrète pour la synthèse d'images réalistes." Toulouse 3, 1995. http://www.theses.fr/1995TOU30248.

Full text
Abstract:
Les techniques d'eclairage dans le domaine de la synthese d'images realistes font l'objet de cette etude. L'objectif principal consiste a definir une methode d'illumination capable de synthetiser des images d'une qualite photometrique semblable a celle des photographies. La methode proposee, fondee sur la theorie du transfert radiatif, integre des objets exclusivement constitues de voxels (element de volume). Un voxel est, au meme titre qu'un pixel (element d'image) dans une image, un element unitaire de representation d'un espace tridimensionnel. La possibilite de stocker toutes sortes d'informations (texture, orientation, eclairement) en tout point constituant les objets est une qualite qui facilite l'application des lois du transfert radiatif. Le controle aise de la taille des voxels permet de definir des fonctions d'echantillonnage de la surface des objets suffisamment precises pour representer la moindre variation de lumiere. Cette etude aboutit donc a une nouvelle methode d'illumination qualifiee de discrete. Une telle application se differencie de ses semblables par l'ampleur de la base de donnees manipulee. En effet, la construction d'une scene tridimensionnelle realiste dans un espace discret entraine la manipulation de plusieurs millions de voxels. Aussi, l'elaboration d'une structure de donnees discrete specialement adaptee a ce type de contrainte est une condition necessaire a la realisation meme de cette application. La structure proposee a, d'une part, la capacite de supporter une quantite considerable de voxels tout en facilitant les transferts lumineux entre eux, et d'autre part, de s'integrer convenablement dans un systeme reparti afin d'exploiter au mieux l'importante puissance de calcul et de stockage generalement offerte par de tels systemes. Sur ce dernier point, l'etude porte a la fois sur les problemes de repartition et equilibrage des charges, et de limitation et controle des communications a l'interieur du systeme reparti. Au vu des resultats, cette etude, limitee au seul calcul d'images fixes, montre tout l'interet d'une approche discrete pour les applications de synthese d'images realistes
APA, Harvard, Vancouver, ISO, and other styles
20

Löbler, Helge, Markus Maier, and Daniel Markgraf. "Risk perception or self perception." Konferenzbeitrag zur IECER 2005, Amsterdam (NL), 2005. https://ul.qucosa.de/id/qucosa%3A17062.

Full text
Abstract:
In cognitive entrepreneurship research one main question is: Do entrepreneurs think differently than others in various ways? Especially in the area of risk perception cognition is thought of as information processing. In later streams of cognitive science it has developed from a state where cognition is seen as information processing to a state where cognition is mainly seen as an effective act, where experiences play an important role. We use risk perception as an indicator for information processing and self perception as an indicator for past experience. We found that past experience explains starting a real venture whereas risk information processing explains starting a case study venture.
APA, Harvard, Vancouver, ISO, and other styles
21

Gilliocq-Hirtz, Diane. "Techniques variationnelles et calcul parallèle en imagerie : Estimation du flot optique avec luminosité variable en petits et larges déplacements." Thesis, Mulhouse, 2016. http://www.theses.fr/2016MULH8379/document.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur l'estimation du flot optique par méthodes variationnelles en petits et en grands déplacements. Nous proposons un modèle basé sur la combinaison locale-globale à laquelle nous ajoutons la prise en compte des variations de la luminosité. La particularité de ce manuscrit réside dans l'utilisation de la méthode des éléments finis pour la résolution des équations. En effet, cette méthode se fait pour le moment très rare dans le domaine du flot optique. Grâce à ce choix de résolution, nous proposons d'implémenter un contrôle local de la régularisation ainsi qu'une adaptation de maillage permettant d'affiner la solution au niveau des arêtes de l'image. Afin de réduire les temps de calcul, nous parallélisons les programmes. La première méthode implémentée est la méthode parallèle en temps appelée pararéel. En couplant un solveur grossier et un solveur fin, cet algorithme permet d'accélérer les calculs. Pour pouvoir obtenir un gain de temps encore plus important et également traiter les séquences en haute définition, nous utilisons ensuite une méthode de décomposition de domaine. Combinée au solveur massivement parallèle MUMPS, cette méthode permet un gain de temps de calcul significatif. Enfin, nous proposons de coupler la méthode de décomposition de domaine et le pararéel afin de profiter des avantages de chacune. Dans une seconde partie, nous appliquons tous ces modèles dans le cas de l'estimation du flot optique en grands déplacements. Nous proposons de nous servir du pararéel afin de traiter la non-linéarité de ce problème. Nous terminons par un exemple concret d'application du flot optique en restauration de films
The work presented in this thesis focuses on the estimation of the optical flow through variational methods in small and large displacements. We propose a model based on the combined local-global strategy to which we add the consideration of brightness intensity variations. The particularity of this manuscript is the use of the finite element method to solve the equations. Indeed, for now, this method is really rare in the field of the optical flow. Thanks to this choice of resolution, we implement an adaptive control of the regularization and a mesh adaptation to refine the solution on the edges of the image. To reduce computation times, we parallelize the programs. The first method implemented is a parallel in time method called parareal. By combining a coarse and a fine solver, this algorithm speeds up the computations. To save even more time and to also be able to handle high resolution sequences, we then use a domain decomposition method. Combined with the massively parallel solver MUMPS, this method allows a significant reduction of computation times. Finally, we propose to couple the domain decomposition method and the parareal to have the benefits of both methods. In the second part, we apply all these models to the case of the optical flow estimation in large displacements. We use the parareal method to cope with the non-linearity of the problem. We end by a concrete example of application of the optical flow in film restoration
APA, Harvard, Vancouver, ISO, and other styles
22

Plassard, Fabien. "Optics optimization of longer L* Beam Delivery System designs for CLIC and tuning of the ATF2 final focus system at ultra-low β* using octupoles." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS122/document.

Full text
Abstract:
Un défi important pour les futurs collisionneurs linéaires électron-positron est de pouvoir focaliser le faisceau à des tailles transverses de l’ordre du nanomètre au point d’interaction (IP), permettant d’atteindre la luminosité de conception. Le système délivrant les faisceaux d’e- et de e + de la sortie du Linac principal vers le point d’interaction, le Beam Delivery System (BDS), réalise les fonctions critiques requises pour atteindre l’objectif de luminosité, tel que la collimation et la focalisation du faisceau. Le faisceau est focalisé par le système de focalisation finale (FFS) tout en corrigeant les aberrations d’ordre supérieur propagées le long du système. Les effets chromatiques contribuant à l’élargissement de la taille du faisceau, sont amplifiés par la force de focalisation des deux derniers quadripôles QF1 et QD0, ou doublet final (FD), et par la longueur de la distance focale finale L* entre QD0 et l’IP. L’approche de correction de la chromaticité retenue pour les deux grands projets actuels de collisionneurs linéaires, CLIC et ILC, est fondée sur la correction locale de la chromaticité générée par le doublet final. Ce schéma est actuellement testé à l’ATF2 au KEK (Japon). Ce travail de thèse se concentre sur les problématiques liées au système de focalisation finale du projet CLIC re-optimisé avec un plus long L*, dans le cadre de la simplification de l’interface machine-détecteur (MDI), ainsi que sur le travail expérimental conduit à l’ATF2 pour l’optimisation et l’étude des optiques du système de focalisation finale à ultra-bas β* incluant les tout premiers est in situ des octupôles à l’ATF2
The future machines considered to carry out high precision physics in the TeV energy regime are electron-positron (e+e−) linear colliders. Future linear colliders feature nanometer beam spot sizes at the Interaction Point. The Beam Delivery System (BDS) transports the e + and e− beams from the exit of the linacs to the IP by performing the critical functions required to meet the CLIC luminosity goal such as beam collimation and focusing. The beam is focused through the Final Focus System while correcting higher order transport aberrations in order to deliver the design IP beam sizes. The chromatic contributions are amplified by the focusing strength of the two last quadrupoles named QD0 and QF1, reffered to as the Final Doublet (FD), and by the length of the final focal distance L* between QD0 and the IP. The chromaticity correction approach chosen for the CLIC FFS is based on the Local chromaticity correction scheme which uses interleaved pairs of sextupole magnets in the FD region in order to locally and simultaneously correct horizontal and vertical chromaticity. The current linear collider projects, the Compact Linear Collider (CLIC) and the International Linear Collider (ILC) have FFS lattices based on the Local Chromaticity correction scheme. This scheme is being tested in the Accelerator Test Facility 2 (ATF2) at KEK (Japan). This thesis concentrates on problems related to the optimization of BDS lattices for the simplification of the CLIC Machine Detector Interface (MDI) and on the experimental work for the implementation and study of a CLIClike FFS optics for the ATF2, referred to as ultra-low β* optics
APA, Harvard, Vancouver, ISO, and other styles
23

Lamure, Michel. "Espaces abstraits et reconnaissance des formes application au traitement des images digitales /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37607029s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Zolnierowski, Yves. "Mesure de la section efficace de photoproduction de beauté en photons réels." Paris 11, 1986. http://www.theses.fr/1986PA112384.

Full text
Abstract:
Pour mesurer la section efficace de photoproduction de quarks b avec un faisceau de photons réels, la collaboration NΛ14 a réalisé une expérience de type " beam dump". La mise en évidence de muons de grande impulsion transverse et plus spécifiquement de dimuons de même signe provenant d’une double désintégration semileptonique (désintégration semileptonique du quark b ct de l'antiquark charmé issu de l'autre hadron beau) est la signature la plus claire de la production de quark b. Les données ont été normalisées en utilisant les mésons J/psi reconstruits et les sections efficaces de photoproduction de cette particule mesurées par cette collaboration lors d'une expérience précédente. Une luminosité intégrée de 2,9 picobarn moins un correspondant à des photons de plus de 85 GeV d'énergie a été accumulée en une vingtaine de jours de prise de données. Notre expérience n’a découvert aucun signal de photoproduction de quarks b ce qui permet d’exclure un effet de seuil renforçant la section efficace au voisinage de seuil de production. Ceci est conforme au modèle de fusion photon-gluon qui décrit la photoproduction de particules de saveur lourde en chromodynamique quantique. L'analyse du signal de dimuons conduit à une limite supérieure de 2 nanobarn à 90 pour cent de niveau de confiance. Si l'on se restreint aux dimuons de signe négatif qui sont moins sensibles aux rapports de branchement des particules charmées, nous obtenons une limite de 4 nanobarn à 90 pour cent de niveau de confiance. L'analyse montre que l'origine des dimuons de même signe observés est liée à la photoproduction de particules charmées.
APA, Harvard, Vancouver, ISO, and other styles
25

QUISTGAARD, PATRICIA WILLIAMS. "TEACHER PERCEPTION, PEER PERCEPTION, SELF-PERCEPTION, CLASSROOM VARIABLES, AND SOLITARY BEHAVIOR (MINNESOTA)." Diss., The University of Arizona, 1986. http://hdl.handle.net/10150/183967.

Full text
Abstract:
Various assessment measures have been used to identify socially isolated children. A model relating constructs associated with social behavior was developed to examine causal relationships among various types of assessment measures. The subjects were 267 third and fourth grade children from public school classrooms in Minnesota. Teacher perception, peer perception, self-discomfort, assertiveness, positive solitary behavior and negative solitary behavior were conceptualized as dependent latent variables. The effects of academic achievement and sex on the dependent latent variables also were examined. Observable indicators of the latent variables include peer sociometric measures; three teacher ratings of social interaction; self-report measures of assertiveness, anxiety, and loneliness; classroom observations of solitary behavior; and the Iowa Test of Basic Skills. Covariance structure analysis procedures (LISREL) were used to link observed measures of social behavior to their respective latent variables through confirmatory factor analysis (CFA) and to examine hypothesized causal relationships among the latent variables. CFA of the dependent variables indicated that the initial model did not provide an acceptable fit with the data. T-values indicated that the observed variables loaded on the hypothesized latent constructs except for two self-report measures. Subsequent model testing indicated that some observed variables loaded on more than one latent variable. The initial covariance structure model was revised based on the CFA. The LISREL analysis indicated that neither the initial nor the revised models of social behavior provided an adequate fit with the data. The significance of individual parameters was examined. The observed self-report measures of assertiveness, loneliness, and anxiety demonstrated low reliability. Hypotheses supported include that academic achievement was causally related to peer perception and that teacher perception, peer perception and academic achievement were causally related to the level of negative solitary behavior. The results support the assessment of perceptions of significant others and academic achievement as screening measures to identify socially isolated children. Additionally, the validity and reliability of using self-report measures with elementary students needs further investigation.
APA, Harvard, Vancouver, ISO, and other styles
26

Cavalier, Sophie. "Détermination des paramètres optiques nécessaires pour la mesure de la luminosité absolue et de la section efficace totale dans ATLAS." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00870367.

Full text
Abstract:
ALFA (Absolute Luminosity for ATLAS) vise à mesurer la luminosité absolue pour l'expérience ATLAS avec une incertitude de 2 - 3\% et la section efficace totale. La luminosité est reliée au nombre d'événements. Plus la luminosité est élevée, plus le nombre d'événements est élevé. C'est donc une quantité importante pour les collisionneurs en général et notamment pour le LHC (Large Hadron Collider). LHC est constitué de deux faisceaux circulant dans deux chambres à vide différentes et collisionnant aux quatre points d'interaction où les principales expériences de physique sont positionnées (ATLAS, CMS, ALICE et LHCb). Les détecteurs constituant ALFA insérés dans des Pots Romains sont positionnés à 240 m de distance du point d'intéraction d'ATLAS après six quadrîpoles et deux dipôles qui constituent la partie de ligne faisceau utile à ALFA et localisée sur le LHC.Les détecteurs sont constitués de fibres scintillantes pour détecter les protons élastiques issus du Point d'Interaction. Ces protons sont transportés au travers des différents aimants qui constituent la ligne de faisceau considérée et qui nécessite une optimisation des paramètres optiques pour les besoins de la mesure. Nous appellerons les optiques fort β, les optiques utilisées durant les périodes expérimentales dédiées à ALFA. Les paramètres des optiques fort β ont été simulés afin de remplir le cahier des charges demandé pour ALFA et elles ont été testées sur le LHC en 2011 et 2012 pendant un certain nombre de périodes expérimentales spécifiques aux optiques fort β sur le LHC.Ces périodes expérimentales se sont terminées en 2013 avant l'arrêt du LHC. Les paramètres optiques ont été mesurés et comparés aux simulations.Certains paramètres ayant des valeurs bien meilleures que celles attendues. Cela a aussi permis de regardes quelques incertitudes sur les paramètres optiques et d'évaluer l'impact de certains de ces paramètres sur la mesure de section efficace totale.
APA, Harvard, Vancouver, ISO, and other styles
27

Longuet, Sophie. "De la foudre à la lumière : enquête sur les formes de la luminosité et leur signification dans l'oeuvre de Dante." Tours, 2005. http://www.theses.fr/2005TOUR2020.

Full text
Abstract:
L'enjeu est de révéler que l'apparence sous laquelle la lumière se manifeste est, dans la "Vita Nuova", liée aux apparitions colorées de Béatrice face à Dante, de démontrer que les couleurs ne sont pas choisies par hasard et que la problématique des couleurs s'intègre dans le cadre riche et complexe de la manifestation de la lumière. Le concept de lumière est celui qui permet de comprendre la continuité de la "Vita Nuova" à la "Divine Comédie", de saisir la philosophie de la lumière mise en scène par ses manifestations colorée et éclatante. Dante, avec l'introduction de la notion de foudre au "Paradis", montre que le mouvement de la lumière se manifeste du ciel au centre instantanément, en plus de se propager de façon sphérique, de s'autodiffuser immédiatement dans toutes les directions. La question de la lumière médiévale fait apparaître un parallélisme entre la lumière physique et la lumière métaphysique comme expression du divin. Tout écrit sur la lumière se teinte d'un caractère symbolique et cette enquête révèle que Dante fait partie des auteurs qui ont su résoudre la question métaphysique à partir d'une analogie avec la lumière sensible
The purpose is to reveal that the way the light occurs in the "Vita Nuova" is related to the Beatrice's coloured appearances to Dante, is to demonstrate that the colours are not chosen randomly and that the problems of the colours are integrated within the rich and complex framework of the manifestation of light. The concept of light enables us to understand the continuity from "Vita Nuova" to the "Divine Comedy", to seize the philosophy of light materialised by its coloured and bright demonstrations. Dante, with the introduction of the concept of lightning in the "Paradise", shows that the light moves instantaneously from the sky to the centre, as well as propagating itself in a spherical way, diffusing itself immediately in all directions. The question of medieval light reveals a parallel between the physical light and the metaphysical light as an expression of divinity. Any work about light has a symbolic depth, and this investigation demonstrates that Dante belongs to the group of authors who were able to solve the metaphysical matter from an analogy with the sensitive light
APA, Harvard, Vancouver, ISO, and other styles
28

Mathieu, Annie. "Rôle de la luminosité et du taux de cortisol dans l'agitation motrice de personnes atteintes de démence vivant en hébergement." Mémoire, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/2279.

Full text
Abstract:
La démence affecte une proportion de plus en plus importante de personnes âgées. Le nombre de cas augmente de façon exponentielle avec l'âge. Une des manifestations atypiques de la démence est l'apparition du syndrome des états crépusculaires. Le syndrome des états crépusculaires désigne une augmentation de la confusion et de l'agitation à la tombée du jour. Ce sont les personnes atteintes de démence avancée qui sont principalement touchées. La perturbation du cycle activité-repos ainsi que l'atténuation de l'effet synchroniseur du cycle lumière-obscurité sont les éléments qui semblent être à la base de l'apparition du syndrome. Les altérations de la rythmicité circadienne se reflètent dans de nombreux paramètres. Il en va ainsi pour le cortisol, une hormone diurne responsable de l'activité de l'organisme. Étant donné les troubles du cycle activité-repos dans la démence, le cortisol salivaire est exploré afin de découvrir toute relation possible entre les changements hormonaux et la perturbation de l'activité motrice. L'hypothèse de recherche à tester est la relation entre l'intensité lumineuse, le taux de cortisol salivaire et le nombre de mouvements."--Résumé abrégé par UMI
APA, Harvard, Vancouver, ISO, and other styles
29

Wang, Pin-Wei. "Star formation rate and the assembly of galaxies in the early universe." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4713/document.

Full text
Abstract:
L'objectif de cette thèse est d'identifier et d'étudier la population à haut décalage spectral. J'ai utilisé des données dans le proches infrarouge venant du sondage UltraVista associé à des données multi-longueur d'onde disponible dans le champ COSMOS ainsi que le sondage ultra profond de VIMOS utilisé comme un échantillon de contrôle pour la sélection des candidats à grand décalage spectrale. Cette analyse m'a amené à sélectionner des galaxies à z>4.5 en utilisant les décalages spectraux photométriques estimés à partir de la distribution spectrale d'énergie complète ainsi que des limites en magnitudes basés sur la profondeur des données dans chaque bande. Cette sélection a amené à la production d'un catalogue unique de 2036 galaxies dans l'intervalle z~5 et de 330 galaxies dans l'intervalle z~6 faisant de ce catalogue le catalogue le plus grand et le plus complet à ce jour. J'ai trouvé que la fonction de luminosité à z~5 est bien reproduite par une fonction de Schechter. A z~6, j'ai observé que le fin lumineuse de la fonction de luminosité semble être plus peuplée qu'une fonction de Schechter le laisse présager, en accord avec les résultats d'autres études Ceci étant une indication que les processus d'assemblage de la masse ont évolué rapidement. Finalement, j'ai intégré la fonction de luminosité pour en déduire la densité de luminosité et dérivé la densité de formation stellaire entre z=4.5 et z=6.5. Mes résultats montrent une densité de formation stellaire importante, en comparaison des derniers résultats avec les données du télescope Hubble, ainsi qu'une précision plus grande liée aux meilleures contraintes sur la fin lumineuse de la fonction de luminosité
The main purpose of this THESIS is to identify and study the population of high redshift galaxies in the redshift range (4.5 < z < 6.5). I use the near infrared data from the UltraVista survey conducted with the Vista telescope in combination with multi-wavelength data available in the COSMOS field and use The VIMOS Ultra Deep spectroscopic redshift survey (VUDS) as a control sample for the selection of high redshift candidates. I made a analysis leads me to select galaxies at z ≥ 4.5 using photometric redshifts computed from the full spectral energy distribution (SED) combined with well tuned magnitude limits based on the depth of the data in each band. At the end of this process I produce a unique catalogue of 2036 galaxies with 4.5 ≤ z ≤ 5.5 and 330 galaxies with 5.5 ≤ z ≤ 6.5, the largest and most complete catalogue of sources at these redshifts existing today. I find that the LF at z ∼ 5 is well fit by a Schechter function. At z ∼ 6 I find that the bright end might be more populated than expected from a Schechter function, in line with results from other authors, an indication that the mass assembly processes have evolved quickly in a short 0.5-1 Gyr timescale. Finally I integrate the luminosity functions to compute the luminosity density and derive the star formation rate density (SFRD) in 4.5 ≤ z ≤ 6.5. My results show a high SFRD comparable to the latest results derived from the HST data, with an improved accuracy linked to the better constraints at the bright end of the LF
APA, Harvard, Vancouver, ISO, and other styles
30

White, Christopher D. "A Perception of Change, A Change of Perception." VCU Scholars Compass, 2015. http://scholarscompass.vcu.edu/etd/3756.

Full text
Abstract:
Change is a constant reminder that permanence is the ultimate illusion. It is through the creation of hyper-realistic, ceramic sculpture that I explore the relationship between nature, humans, and the phenomenon of impermanence. I seek to expose the beauty that often results from decay while, at the same time, making my viewer question their own perception of the world around them. The juxtaposition of natural and man-made features in combination with the skewing of scale, proportion, and material, creates an altered perspective – forcing the viewer to look closer. By combining both human and natural elements within my work I highlight the fact that we are not separate from nature but are, in fact, part of it.
APA, Harvard, Vancouver, ISO, and other styles
31

Forsmark, Rebecca. "Simulating Perception : Perception based colours in virtual environments." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-12362.

Full text
Abstract:
This research explores the differences between how game engine cameras and the human visual system (HVS) render colour. The study is motivated by a two part research question: will HVS colours or game camera colours be preferred when experiencing a virtual environment from a 1st-person perspective and how does light intensity relate to preference? While previous research defines perceptual processes which influence the interpretation of colour information this study advances the understanding of how these theories may be applied to 3D colour grading.When evaluating the two colour modes with a combination of quantitative data and qualitative reflections it was possible to establish a correlation between preference and light intensity, in the sense that HVS colours were preferred in high illumination and camera colours in low. The findings implicate that in order to be well received the colours of a virtual environment need to be adjusted according to illumination.
APA, Harvard, Vancouver, ISO, and other styles
32

Arfaoui, Samir. "Système haute-tension du calorimètre à argon liquide du détecteur ATLAS: mise en œuvre, optimisation, et mesure de luminosité du LHC." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2011. http://tel.archives-ouvertes.fr/tel-00658194.

Full text
Abstract:
Les principaux objectifs du programme scientifique de l'experience ATLAS sont l'observation ou l'exclusion de physique au-delà du Modèle Standard, ainsi que la mesure de sections efficaces de production de processus du Modèle Standard. Pour ce faire, il est important de mesurer la luminosité au point d'interaction avec une grande précision. Dans l'experience ATLAS, la luminosité est extraite à l'aide de plusieurs détecteurs possédant des efficacités et acceptances géométriques variées. Différentes méthodes, telles que le comptage inclusif (ou en coïncidence) d'événements, ainsi que des mesures de courants intégrés provenant des calorimètres, sont calibrées et comparées afin d'assurer une détermination précise de la luminosité. Afin de permettre une comparaison additionelle et un meilleur contrôle sur les incertitudes systématiques liées à la détermination de la luminosité, une mesure indépendante utilisant le compartiment avant du calorimètre électromagnétique, basé sur la mesure du courant de son système haute-tension, a été développée. Ce document décrit comment la mise en route dud système haute-tension du calorimètre à argon liquide du détecteur ATLAS, ainsi que son application à une mesure de luminosité.
APA, Harvard, Vancouver, ISO, and other styles
33

Ross, D. A. "Lightness perception." Thesis, Queen's University Belfast, 2005. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.419552.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Taylor, Richard James. "Affective perception." Thesis, University of Oxford, 2010. http://ora.ox.ac.uk/objects/uuid:a5fe8467-c5e5-4cda-9875-ab46d67c4a62.

Full text
Abstract:
This thesis aims to present and defend an account of affective perception. The central argument seeks to establish three claims. 1) Certain emotional bodily feelings (and not just psychic feelings) are world-directed intentional states. 2) Their intentionality is to be understood in perceptual terms: such feelings are affective perceptions of emotional properties of a certain kind. 3) These ‘emotion-proper properties’ are response-dependent in a way that entails that appropriate affective responses to their token instances qualify, ipso facto, as perceptions of those instances. The arguments for (1) and (2) appeal directly to the phenomenology of emotional experience and draw heavily from recent research by Peter Goldie and Matthew Ratcliffe. By applying Goldie’s insights into the intentional structure of psychic feelings to the case of emotional bodily feelings, it is shown that certain of the latter—particularly those pertaining to the so-called ‘standard’ emotions—exemplify world-directed intentionality analogous to the perceptual intentionality of tactile feelings. Adapting Ratcliffe’s account of the analogy between tactile feelings and what he terms ‘existential feelings’, it is argued that standard emotional bodily feelings are at the same time intrinsically intentional world-directed perceptual states (affective perceptions) through which the defining properties of emotional objects (emotion-proper properties) are apprehended. The subsequent account of these properties endorses a response-dependence thesis similar to that defended by John McDowell and David Wiggins and argues that tokening an appropriate emotional affective state in response to a token emotion-proper property is both a necessary and a sufficient condition for perception of that property (Claim (3)). The central claim is thus secured by appeal both to the nature of the relevant feelings and the nature of the relevant properties (the former being intrinsically intentional representational states and the latter being response-dependent in a way that guarantees the perceptual status of the former).
APA, Harvard, Vancouver, ISO, and other styles
35

Biddle, Megan. "Depth Perception." VCU Scholars Compass, 2005. http://scholarscompass.vcu.edu/etd_retro/68.

Full text
Abstract:
A fingerprint can identify an individual, yet it tells us nothing specific about the person it belongs to. It is almost invisible, yet it can be traced. Hair can be both beautiful and repulsive, depending on its context--It is an element of the body that lingers, amazingly, after decay.I am inspired by my observations of natural occurring phenomena. The impermanence of all things speaks to me in a whisper. I am captivated by the traces and residue of life that lingers and will eventually dissolve. Using glass, paper, wax, and film I make objects and installations that give physical form to something fleeting. My work is a record of my process. I use imprints and textures of my body to leave a trace or mark on my surroundings--You are here. A pushpin on a giant map represents the earth and our location on it. Working with magnification and systems that generate form, my work embodies a preservation of the ephemeral with all of its unimaginable residual effects.
APA, Harvard, Vancouver, ISO, and other styles
36

Narayanan, Venkatraman. "Deliberative Perception." Research Showcase @ CMU, 2017. http://repository.cmu.edu/dissertations/1064.

Full text
Abstract:
A recurrent and elementary robot perception task is to identify and localize objects of interest in the physical world. In many real-world situations such as in automated warehouses and assembly lines, this task entails localizing specific object instances with known 3D models. Most modern-day methods for the 3D multi-object localization task employ scene-to-model feature matching or regression/classification by learners trained on synthetic or real scenes. While these methods are typically fast in producing a result, they are often brittle, sensitive to occlusions, and depend on the right choice of features and/or training data. This thesis introduces and advocates a deliberative approach, where the multi-object localization task is framed as an optimization over the space of hypothesized scenes. We demonstrate that deliberative reasoning — such as understanding inter-object occlusions — is essential to robust perception, and that discriminative techniques can effectively guide such reasoning. The contributions of this thesis broadly fall under three parts: The first part, PErception via SeaRCH (PERCH) and its extension C-PERCH, formulates Deliberative Perception as an optimization over hypothesized scenes, and develops an efficient tree search algorithm for the same. The second part focuses on accelerating global search through statistical learners, in the form of search heuristics (Discriminatively-guided Deliberative Perception), and by modulating the search-space (RANSAC-Trees). The final part introduces general-purpose graph search algorithms that bridge statistical learning and search. Of these, the first is an anytime algorithm for leveraging edge validity priors to accelerate graph search, and the second, Improved Multi-Heuristic A*, permits the use of multiple, inadmissible heuristics that might arise from learning. Experimental validation on multiple robots and real-world datasets, one of which we introduce, indicates that we can leverage the complementary strengths of fast learningbased methods and deliberative classical search to handle both "hard" (severely occluded) and "easy" portions of a scene by automatically sliding the amount of deliberation required.
APA, Harvard, Vancouver, ISO, and other styles
37

Veto, Peter, Marvin Uhlig, Nikolaus F. Troje, and Wolfgang Einhäuser. "Cognition modulates action-to-perception transfer in ambiguous perception." Association for Research in Vision and Ophthalmology (ARVO), 2018. https://monarch.qucosa.de/id/qucosa%3A31533.

Full text
Abstract:
Can cognition penetrate action-to-perception transfer? Participants observed a structure-from-motion cylinder of ambiguous rotation direction. Beforehand, they experienced one of two mechanical models: An unambiguous cylinder was connected to a rod by either a belt (cylinder and rod rotating in the same direction) or by gears (both rotating in opposite directions). During ambiguous cylinder presentation, mechanics and rod were invisible, making both conditions visually identical. Observers inferred the rod's direction from their moment-by-moment subjective perceptual interpretation of the ambiguous cylinder. They reported the (hidden) rod's direction by rotating a manipulandum in either the same or the opposite direction. With respect to their effect on perceptual stability, the resulting match/nonmatch between perceived cylinder rotation and manipulandum rotation showed a significant interaction with the cognitive model they had previously been biased with. For the “belt” model, congruency between cylinder perception and manual action is induced by same-direction report. Here, we found that same-direction movement stabilized the perceived motion direction, replicating a known congruency effect. For the “gear” model, congruency between perception and action is—in contrast—induced by opposite-direction report. Here, no effect of perception-action congruency was found: Perceptual congruency and cognitive model nullified each other. Hence, an observer's internal model of a machine's operation guides action-to-perception transfer.
APA, Harvard, Vancouver, ISO, and other styles
38

Porporino, Mafalda. "Developmental differences in global and local perception : is global perception more attention demanding than local perception." Thesis, McGill University, 2000. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=30796.

Full text
Abstract:
The primary purpose of the present study was to examine various aspects of local and global perception in groups of children and young adults with average ages of 6, 8, 10, 12, and 22 years. The aspects examined included developmental differences in RT for local and global visual information, the influence of filtering on global and local perception, and role of distracter congruency and compatibility on processing local and global stimuli. At a general level, the findings revealed that participants processed global faster than local stimuli. With the presence of distracters, 6 and 8-year-old participants demonstrated slower RTs for global targets relative to local targets. Distracter congruency or compatibility did not differentially affect global and local processing. However, congruency did appear to be related to differential performance for 6-year old males versus females. These results indicate that the underlying processes involved in global and local perception may be separate, with global perception relying on attentional mechanisms to a greater extent than local perception.
APA, Harvard, Vancouver, ISO, and other styles
39

Boughaleb, Hichame. "Courbes de lumière des étoiles Miras : classification, analyse symbolique et prévision." Montpellier 2, 1994. http://www.theses.fr/1994MON20084.

Full text
Abstract:
Les etoiles variables a longue periode de type mira sont caracterisees par des variations de luminosite pseudo-periodiques et de grande amplitude. Ce travail de these est base sur des donnees qui concernent un echantillon de pres de 400 courbes de lumiere visuelle et, qui couvrent une duree de 75 ans. Dans un premier temps, nous abordons une etude statistique aussi bien de chaque courbe de lumiere que de l'ensemble de l'echantillon. Cette premiere etape nous permet de determiner, les correlations cycle a cycle ainsi que les parametres moyens de chacune des courbes de lumiere. Les liens avec certains parametres physiques de ces etoiles sont ensuite examines. Par ailleurs, nous nous interessons au probleme de la prevision des courbes de lumiere. Nous exposons alors la methode d'apprentissage symbolique que nous avons appliquee et qui reste valable bien au dela du present contexte. Elle permet en effet l'analyse et la prevision de series chronologiques comportant des donnees manquantes. Nous illustrons alors comment cette technique s'est inseree dans la procedure de prevision elaboree dans le cadre de la mission spatiale europeenne hipparcos. Finalement, nous procedons a une classification automatique des courbes de lumiere, comparant approches symboliques et methodes numeriques usuelles. Nous examinons enfin les liens de cette classification avec d'autres classifications apparentees a l'apprentissage symbolique ou a la cinematiques des etoiles correspondantes. Nous degageons ainsi les rapports entre les caracteristiques d'une courbe de lumiere et l'appartenance de l'etoile a une population stellaire
APA, Harvard, Vancouver, ISO, and other styles
40

Bambade, Philip. "Réglages optiques des arcs et de la section de focalisation finale du collisionneur linéaire de Stanford (SLC)." Paris 11, 1989. http://www.theses.fr/1989PA112048.

Full text
Abstract:
Dans cette thèse, nous décrivons les méthodes expérimentales qui ont été développées pour régler le transport optique des Arcs et de la Section de Focalisation Finale du Collisionneur Linéaire de Stanford (SLC). Ces réglages sont nécessaires pour maximiser la luminosité, en minimisant les dimensions transversales au point d'interaction, et pour réduire le bruit de fond dans l'expérience. Dans la section de focalisation finale, les réglages sont effectués selon une stratégie qui doit tenir compte d'un dessin optique complexe, basé sur des compensations entre aberrations optiques au second ordre, ainsi que des possibilités de mesurer les faisceaux de quelques microns typiques du SLC. Dans les Arcs, les corrections que nous décrivons on été introduites après le démarrage initail pour réduire la sensibilité aux erreurs, à travers une modification du dessin de l'optique, et pour permettre des réglages du faisceau à l'injection de la section de focalisation finale, grâce à une technique de perturbation harmonique inspirée des accélérateurs circulaires. Bien que l'optimisation globale du SLC ne soit pas entièrement achevée, un réglage presque optimal de ces deux lignes a été obtenu. Au point d'interaction des faisceaux avec des dimensions proches des dimensions nominales de quelques microns ont été produits. Nous présentons et discutons les résultats et les limites optiques au fonctionnement actuel
In this thesis, we present the experimental tuning procedures developed for the Arcs and for the Final Focus Section of the Stanford Linear Collider (SLC). Such tuning is necessary to maximize the luminosity, by minimizing the beam size at the interaction point, and to reduce backgrounds in the experiment. In the Final Focus Section, the correction strategy must result from the principles of the optical design, which is based on cancellations between second order aberrations, and on the ability to measure micron-size beams typical of the SLC. In the Arcs, the corrections were designed after the initial commissionning, to make the system more error-tolerant, through a modification in the optical design, and to enable adjustments of the beam phase-space at the injection to the Final Focus System, through a harmonic pertubation technique inspired from circular accelerators. Although the overall optimization of the SLC is not entirely finished, an almost optimal set up has been achieved for the optics of the Arcs and of the final focus section. Beams with tranverse sizes close to the nominal ones, of a few microns, have been obtained at the interaction point. We present and discuss our results and the optical limits to the present performance
APA, Harvard, Vancouver, ISO, and other styles
41

Barazeghi, Roya, Alexander Hagring, and Fredrik Klint. "Strategy Perception : A Qualitative Study of Perception Differences and Similarities." Thesis, Internationella Handelshögskolan, Högskolan i Jönköping, IHH, ESOL (Entrepreneurship, Strategy, Organization, Leadership), 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-16120.

Full text
Abstract:
Strategy is an important part of any business. To become successful, a company must put a lot of effort into creating a strong and feasible strategy. To eliminate problems to follow the strategy it should be clear and jointly formulated. However, a problem could still be that the strategy is perceived and understood differently by managers and em-ployees within the company. This could implicate issues because these persons are ex-pected to follow the strategy and adopt their plans according to it. In this study we in-vestigate how the perceptions of a strategy differ among employees within an organisa-tion. This study is made with Yoigo, which is a Spanish telecommunication company that recently finished the creation of a new strategy.In this research, a qualitative method was used to collect primary data. Highly standard-ized and open interviews were conducted in Madrid at the Yoigo headquarter. In addi-tion, observations were used as primary data in order to better answer our research ques-tions and to fulfil our purpose.Our results indicate that there are significant differences and similarities in employees’ perception of the strategy. This study also concludes that a company’s internal envi-ronment could affect employees’ strategy awareness. We tested the perception of strat-egy through four different perspectives. The first three are customers, competitors and corporation; these perspectives are pointed out as key factors to a successful strategy (Ohmae, 1982). The fourth perspective was to investigate how perceptions differed in terms of the strategy formation process. Our major findings are that employees’ percep-tions regarding competitors and the strategy process are highly coherent while the op-posite is found about customers and corporation.
APA, Harvard, Vancouver, ISO, and other styles
42

Sun, Li. "Integrated visual perception architecture for robotic clothes perception and manipulation." Thesis, University of Glasgow, 2016. http://theses.gla.ac.uk/7685/.

Full text
Abstract:
This thesis proposes a generic visual perception architecture for robotic clothes perception and manipulation. This proposed architecture is fully integrated with a stereo vision system and a dual-arm robot and is able to perform a number of autonomous laundering tasks. Clothes perception and manipulation is a novel research topic in robotics and has experienced rapid development in recent years. Compared to the task of perceiving and manipulating rigid objects, clothes perception and manipulation poses a greater challenge. This can be attributed to two reasons: firstly, deformable clothing requires precise (high-acuity) visual perception and dexterous manipulation; secondly, as clothing approximates a non-rigid 2-manifold in 3-space, that can adopt a quasi-infinite configuration space, the potential variability in the appearance of clothing items makes them difficult to understand, identify uniquely, and interact with by machine. From an applications perspective, and as part of EU CloPeMa project, the integrated visual perception architecture refines a pre-existing clothing manipulation pipeline by completing pre-wash clothes (category) sorting (using single-shot or interactive perception for garment categorisation and manipulation) and post-wash dual-arm flattening. To the best of the author’s knowledge, as investigated in this thesis, the autonomous clothing perception and manipulation solutions presented here were first proposed and reported by the author. All of the reported robot demonstrations in this work follow a perception-manipulation method- ology where visual and tactile feedback (in the form of surface wrinkledness captured by the high accuracy depth sensor i.e. CloPeMa stereo head or the predictive confidence modelled by Gaussian Processing) serve as the halting criteria in the flattening and sorting tasks, respectively. From scientific perspective, the proposed visual perception architecture addresses the above challenges by parsing and grouping 3D clothing configurations hierarchically from low-level curvatures, through mid-level surface shape representations (providing topological descriptions and 3D texture representations), to high-level semantic structures and statistical descriptions. A range of visual features such as Shape Index, Surface Topologies Analysis and Local Binary Patterns have been adapted within this work to parse clothing surfaces and textures and several novel features have been devised, including B-Spline Patches with Locality-Constrained Linear coding, and Topology Spatial Distance to describe and quantify generic landmarks (wrinkles and folds). The essence of this proposed architecture comprises 3D generic surface parsing and interpretation, which is critical to underpinning a number of laundering tasks and has the potential to be extended to other rigid and non-rigid object perception and manipulation tasks. The experimental results presented in this thesis demonstrate that: firstly, the proposed grasp- ing approach achieves on-average 84.7% accuracy; secondly, the proposed flattening approach is able to flatten towels, t-shirts and pants (shorts) within 9 iterations on-average; thirdly, the proposed clothes recognition pipeline can recognise clothes categories from highly wrinkled configurations and advances the state-of-the-art by 36% in terms of classification accuracy, achieving an 83.2% true-positive classification rate when discriminating between five categories of clothes; finally the Gaussian Process based interactive perception approach exhibits a substantial improvement over single-shot perception. Accordingly, this thesis has advanced the state-of-the-art of robot clothes perception and manipulation.
APA, Harvard, Vancouver, ISO, and other styles
43

Gkougkousis, Evangelos. "Etudes de bruit du fond dans le canal H→ZZ*→4l pour le Run 1 du LHC. Perspectives du mode bbH(→γγ) et études d'un système de détecteur pixel amélioré pour la mise à niveau de l'expérience ATLAS pour la phase HL-LHC." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS063/document.

Full text
Abstract:
La première prise des données du LHC (2010-2012) a été marquée par la découverte du boson scalaire, dit boson de Higgs. Sa masse a été mesurée avec une précision de 0.2% en utilisant ses désintégrations en deux photons et celles en deux bosons Z donnant quatre leptons dans l’état final. Les couplages ont été estimés en combinant plusieurs états finaux, tandis que la précision sur leur mesure pourra bénéficier énormément de la grande statistique qui sera accumulée pendant les prochaines périodes de prise des données au LHC (Run 2, Phase 2).Le canal H→ZZ*→4 leptons, a un rapport d'embranchement réduit mais présente un faible bruit de fond, ce qui le rend attractif pour la détermination des propriétés du nouveau boson. Dans cette thèse, l’analyse conduite pour la mise en évidence de ce mode dans l’expérience ATLAS est détaillée, avec un poids particulier porté à la mesure et au contrôle du bruit de fond réductible en présence d’électrons.Dans le cadre de la préparation de futures prises de données à très haute luminosité, prévues à partir de 2025, deux études sont menées:La première concerne l’observabilité du mode de production du boson de Higgs en association avec des quarks b. Une analyse multivariée, basée sur des données simulées, confirme un très faible signal dans le canal H→2 photons.La seconde concerne la conception et le développement d’un détecteur interne en silicium, adapté à l’environnement hostile, de haute irradiation et de taux d’occupation élevée, attendues pendant la Phase 2 du LHC. Des études concernant l’optimisation de la géométrie, l’amélioration de l’efficacité ainsi que la résistance à l’irradiation ont été menées. A travers des mesures SiMS et des simulations des procédés de fabrication, les profiles de dopage et les caractéristiques électriques attendues pour des technologies innovantes sont explorés. Des prototypes ont été testés sous faisceau et soumis à des irradiations, afin d’évaluer les performances du détecteur et celles de son électronique associée
The discovery of a scalar boson, known as the Higgs boson, marked the first LHC data period (2010-2012). Using mainly di-photon and di-Z decays, with the latest leading to a four leptons final state, the mass of the boson was measured with a precision of <0.2%. Relevant couplings were estimated by combining several final states, while corresponding uncertainties would largely benefit from the increased statistics expected during the next LHC data periods (Run 2, Phase 2).The H→ZZ*→4l channel, in spite of its suppressed brunching ratio, benefits from a weak background, making it a prime choice for the investigation of the new boson’s properties. In this thesis, the analysis aimed to the observation of this mode with the ALTAS detector is presented, with a focus on the measurement and control of the reducible electron background.In the context of preparation for future high luminosity data periods, foreseen from 2025 onwards, two distinct studies are conducted:The first concerns the observability potential of the Higgs associated production mode in conjunction with two b-quarks. A multivariate analysis based on simulated data confirms a very weak expected signal in the H→di-photon channel.The second revolves around the conception and development of an inner silicon detector capable of operating in the hostile environment of high radiation and increased occupancy, expected during LHC Phase 2. Main studies were concentrated on improving radiation hardness, geometrical and detection efficiency. Through fabrication process simulation and SiMS measurements, doping profiles and electrical characteristics, expected for innovative technologies, are explored. Prototypes were designed and evaluated in test beams and irradiation experiments in order to asses their performances and that of associated read-out electronics
APA, Harvard, Vancouver, ISO, and other styles
44

Miller, Laurie Kathleen. "Theatre of perception." Thesis, Georgia Institute of Technology, 1990. http://hdl.handle.net/1853/21591.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Hospedales, Timothy. "Bayesian multisensory perception." Thesis, University of Edinburgh, 2008. http://hdl.handle.net/1842/2156.

Full text
Abstract:
A key goal for humans and artificial intelligence systems is to develop an accurate and unified picture of the outside world based on the data from any sense(s) that may be available. The availability of multiple senses presents the perceptual system with new opportunities to fulfil this goal, but exploiting these opportunities first requires the solution of two related tasks. The first is how to make the best use of any redundant information from the sensors to produce the most accurate percept of the state of the world. The second is how to interpret the relationship between observations in each modality; for example, the correspondence problem of whether or not they originate from the same source. This thesis investigates these questions using ideal Bayesian observers as the underlying theoretical approach. In particular, the latter correspondence task is treated as a problem of Bayesian model selection or structure inference in Bayesian networks. This approach provides a unified and principled way of representing and understanding the perceptual problems faced by humans and machines and their commonality. In the domain of machine intelligence, we exploit the developed theory for practical benefit, developing a model to represent audio-visual correlations. Unsupervised learning in this model provides automatic calibration and user appearance learning, without human intervention. Inference in the model involves explicit reasoning about the association between latent sources and observations. This provides audio-visual tracking through occlusion with improved accuracy compared to standard techniques. It also provides detection, verification and speech segmentation, ultimately allowing the machine to understand ``who said what, where?'' in multi-party conversations. In the domain of human neuroscience, we show how a variety of recent results in multimodal perception can be understood as the consequence of probabilistic reasoning about the causal structure of multimodal observations. We show this for a localisation task in audio-visual psychophysics, which is very similar to the task solved by our machine learning system. We also use the same theory to understand results from experiments in the completely different paradigm of oddity detection using visual and haptic modalities. These results begin to suggest that the human perceptual system performs -- or at least approximates -- sophisticated probabilistic reasoning about the causal structure of observations under the hood.
APA, Harvard, Vancouver, ISO, and other styles
46

Pelling, Charlie. "Concepts in perception." Thesis, University of Reading, 2008. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.494976.

Full text
Abstract:
In this thesis, I examine a 'conceptualist' theory of perceptual experience, according to which: Conceptualism: Any normal human perceptual experience has the representational content that it does exclusively in virtue of its drawing into operation concepts that the subject of the experience possesses at the time of the experience. The main aim of the thesis is to establish whether this theory is true or false.
APA, Harvard, Vancouver, ISO, and other styles
47

Gisborne, Nikolas Simon. "English perception verbs." Thesis, University College London (University of London), 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.570311.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Caputo, Davide. "Polanski and perception." Thesis, University of Exeter, 2010. http://hdl.handle.net/10036/3183.

Full text
Abstract:
Filmmaker Roman Polanski declares in his autobiography that he was greatly influenced by renowned neuropsychologist Richard L. Gregory (1923-2010), whose work, Polanski claims, gave scientific confirmation to many of his own beliefs regarding the nature of perception. Gregory was a strong advocate for what is referred to as the ‘indirect’ theory of perception, a theoretical model that stresses the agency of cognition, specifically hypothesisation, in the act of perceiving. This analysis of Polanski’s cinema is guided by an exploration of perceptual psychology, with special attention paid to how the theory of indirect perception differs from competing, and often more intuitive, models of perception. The two main focuses of this thesis are: a) to identify the ways in which Polanski’s cinematography is actively informed by neuropsychological research on perception, and b) to discuss the various ways in which the key philosophical implications of the theory of indirect perception find expression in his cinema. My analysis will focus primarily on two (unofficial) ‘trilogies’, what I refer to as the ‘Apartment Trilogy’ of Repulsion (1965), Rosemary’s Baby (1968), and The Tenant (1976), and the ‘Investigation Trilogy’ of Chinatown (1974), Frantic (1988) and The Ninth Gate (1999). Also included are minor case studies of Knife in the Water (1962), Death and the Maiden (1994), and The Ghost (2010). This thesis hopes to demonstrate the manner in which Polanski’s cinematic engagement with perceptual psychology evolves over his career, from more psychologically intimate explorations of the perceptual mechanism via portrayals of schizophrenia in his earlier films, to more distant studies of highly proficient perceiving bodies who are nevertheless confronted with serious challenges to their perceptual (and epistemological) frameworks.
APA, Harvard, Vancouver, ISO, and other styles
49

Skelton, Alice Elizabeth. "Infant colour perception." Thesis, University of Sussex, 2018. http://sro.sussex.ac.uk/id/eprint/77041/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Rhodes, Darren. "Bayesian time perception." Thesis, University of Birmingham, 2016. http://etheses.bham.ac.uk//id/eprint/6608/.

Full text
Abstract:
Time is an elemental dimension of human perception, cognition and action. Innumerable studies have investigated the perception of time over the last 100 years, but the computational basis for the processing of temporal information remains unknown. This thesis aims to understand the mechanisms underlying the perceived timing of stimuli. We propose a novel Bayesian model of when stimuli are perceived that is consistent with the predictive coding framework – such a perspective to how the brain deals with temporal information forms the core of this thesis. We theorize that that the brain takes prior expectations about when a stimulus might occur in the future (prior distribution) and combines it with current sensory evidence (likelihood function) in order to generate a percept of perceived timing (posterior distribution). In Chapters 2-4, we use human psychophysics to show that the brain may bias perception such that slightly irregularly timed stimuli as reported as more regular. In Chapter 3, we show how an environment of irregularity can cause regularly timed sequences to be perceived as irregular whilst Chapter 4 shows how changes in the reliability of a signal can cause an increased attraction towards expectation.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography