To see the other types of publications on this topic, follow the link: Instrument faible.

Dissertations / Theses on the topic 'Instrument faible'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 26 dissertations / theses for your research on the topic 'Instrument faible.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire." Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Schwoerer, Jean. "Etudes et implémentation d'une couche physique UWB impulsionnelle à bas débit et faible complexité." Rennes, INSA, 2006. http://www.theses.fr/2006ISAR0006.

Full text
Abstract:
De par son approche nouvelle, la radio impulsionnelle ultra large bande (uwb-ir) est porteuse de nombreuses promesses en termes de debit, de robustesse et de faible consommation. Du fait de sa largeur de bande (superieure a 500 mhz), elle offre egalement la possibilite de faire de la geolocalisation avec une precision submetrique. Ce travail de these a debute alors que les premieres publications sur l'uwb presentaient des resultats de simulation extraordinaires. Afin de mieux cerner son reel potentiel dans le domaine des communications bas debit auquel l'uwb-ir semble particulierement adaptee, cette etude a ete orientee vers la realisation materielle d'une chaine de communication, sous-tendue par la contrainte de forte reduction de complexite. Cette etude commence par la specification d'une couche physique adaptee a la technologie et au domaine d'application envisage, qui repose sur un schema de transmission tres simple. La plate-forme d'emission realisee est basee sur une architecture tres simple et des composants discrets de bas de gamme. Elle demontre ainsi la possibilite d'embarquer une telle structure dans un objet communicant autonome de faible cout. La chaine de reception suit une approche originale basee sur un detecteur d'enveloppe et un comparateur a seuil variable, ce qui permet de relacher certaines contraintes bloquantes comme celles liees a l'acquisition de synchronisation. Un ensemble d'algorithmes de reception a faible complexite permet d'exploiter au mieux cette structure de detection en levant differents verrous technologiques. Par ce travail, une reflexion globale sur un systeme uwb-ir bas debit a ete menee et a abouti a la realisation d'un lien radio physique qui demontre la viabilite technique de cette technologie en rupture. De plus, les resultats obtenus ont ete la base d'une proposition complete portee en normalisation
From its new approach, the impulse radio ultra wide band (ir-uwb) technology is carrying many promises in terms of troughput, robustness, and low energy consumption. Because his bandwidth (higher than 500 mhz), it also makes it possible to do high accuracy geolocalisation. This thesis work began whereas the first publications on uwb had extraordinary simulation results. In order to better determine ir-uwb real potential in the field of low throughput communications to which their one seems particularly adapted, this study was directed towards the prototyping of an uwb link, underlain by the constraint of strong complexity reduction. This study starts with the specification of a physical layer adapted to the technology and the applicability considered, which is based on a very simple transmission scheme. The transmitter is based on a very simple architecture build with low cost "off the shelf" components and thus shows the possibility of embarking such a structure in an autonomous low cost communicating object. The receiver structure follows an original approach based on a video detector and a variable threshold comparator, which makes it possible to slacken certain blocking constraints like those related to synchronization. A set of low complexity receiving algorithms is also developed to enable the use of this structure while raising various technological deadlock. By this work, a global reflexion on an low data rate ir-uwb system was conducted and led to the realization of a physical radio link which shows the technical viability of this technology. Moreover, the results obtained were the base of a full proposal carried in standardization
APA, Harvard, Vancouver, ISO, and other styles
3

Rhouni, Amine. "Étude de fonctions électroniques en technologie ASIC pour instruments dédiés à l’étude des plasmas spatiaux." Paris 6, 2012. http://www.theses.fr/2012PA066593.

Full text
Abstract:
Le développement des instruments destinés à être embarqués à bord de satellites et de sondes spatiales permet d’étudier, in situ, les relations soleil Terre et plus généralement le vent solaire et les environnements ionisés planétaires. L’étude de ces phénomènes nécessite la combinaison d’instruments permettant de caractériser à la fois les ondes et leurs particules. Nous nous sommes intéressés à l’intégration de l’électronique des instruments spatiaux, et notamment la chaine d’amplification analogique de magnétomètres à induction et la chaîne d’amplification / discrimination de détecteurs de particules, en technologie standard CMOS 0. 35μm. Un travail important sur les structures d’amplifications a été mené afin de réduire considérablement la consommation et augmenter la sensibilité de la chaine électronique de traitement du détecteur de particules. Ainsi, la faisabilité d’une électronique intégrée multivoie pour l’analyseur de particules à optique hémisphérique contenant jusqu’à 256 pixels a été prouvée. Réduire le niveau de bruit en basse fréquence (de quelques 100 mHz à quelque 10 kHz) des circuits à base de composants MOS a toujours été une tache fastidieuse, puisque ce type de composants n’est à la base, pas destiné à une telle gamme de fréquence. Il a été donc nécessaire de concevoir des structures d’amplification originales par la taille non habituelle, voir à la limite autorisée par les procédés de fabrication, de leur transistors d’entrée. Les résultats obtenus lors des tests de validations et en radiations sont très satisfaisants. Ils permettent d’ouvrir une éventuelle voie pour l’électronique intégrée au sein de l’instrumentation spatiale
The development of instruments to be embedded on board satellites and space probes allows to study, in situ, the earth and sun relationships and more generally the solar wind and planetary ionized environments. The study of these phenomena requires a combination of instruments to characterize both waves and particles. We are interested in the integration, in a standard technology CMOS 0. 35 μm, of space instruments electronic, especially the analogue amplification chain of induction magnetometers and the amplification / discrimination chain of particle detectors. Important work on amplification structures was carried out in order to significantly reduce consumption and increase the sensitivity of the processing electronic chain for the particle detector. Thus, the feasibility of an integrated multichannel electronic for the particle analyser using a hemispherical electrostatic optical and containing up to 256 pixels, has been proven. Reducing the low frequency noise level in circuits based on MOS devices has always been a tedious task, since this type of components is the basis, not intended for such a range frequency. It was therefore necessary to design original amplification structures by the not usual size of their input transistors. This solution has significantly reduced the input equivalent noise of magnetometers amplification electronic. The advantage of using CMOS technology is the low current noise, the low power consumption and the overcrowding problem resolving. Obtained results in validation and radiation tests are very satisfactory. They can open the way for a possible integrated electronic in space instrumentation
APA, Harvard, Vancouver, ISO, and other styles
4

Rahmoun, Mohammed. "Conception et réalisation d'un dispositif à effet Peltier adapté à la mesure des faibles débits de liquide." Lille 1, 1994. http://www.theses.fr/1994LIL10051.

Full text
Abstract:
Le travail presente est relatif a la conception, la realisation et la caracterisation d'un dispositif a effet peltier adapte a la mesure de tres faibles debits de liquide. L'element de base de ce type de capteur, de structure planaire, est un circuit bimetallique a deux conducteurs connectes en serie de facon a realiser de nombreuses jonctions. Le principe de mesure est de creer a l'aide d'un courant electrique des differences de temperature entre les jonctions du circuit thermoelectrique, puis mesurer la f;e;m; induite par effet seebeck. Le grand avantage de ce nouveau type de capteur tres sensible est qu'il n'est pas utile d'elever la temperature au-dessus de la temperature du fluide environnant, de tres faibles quantites d'energie etant necessaire pour etablir un gradient de temperature dans un milieu fluide. Le mouvement relatif du fluide par rapport au circuit active les echanges thermiques et diminue la difference de temperature entre jonctions thermoelectriques. La variation d'ecart de temperature entre deux jonctions depend du debit massique du fluide autour du circuit et genere par effet seebeck une tension representative de ce debit massique. Nous avons montre que la mesure de la f. E. M. Thermoelectrique delivree par le circuit bimetallique dispose dans une canalisation permettait la mesure du debit massique du liquide traversant ce conduit. Compte tenu des faibles valeurs de tension a mesurer, la precision de la mesure ne depend que l'instrumentation electronique associee. Les performances de ce nouveau type de debitmetre pour les liquides associees a une facilite de fabrication permettent d'envisager une industrialisation et des applications dans de nombreux domaines tels que l'ingenierie chimique ou biomedicale.
APA, Harvard, Vancouver, ISO, and other styles
5

Krause, Cindy. "Großereignisbewerbungen als Instrument aktiver Stadtentwicklungspolitik:." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2017. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-212410.

Full text
Abstract:
Seit den 1990er Jahren werden Großereignisse in der Stadtsoziologie und den Planungswissenschaften als Instrumente der Stadtentwicklungspolitik diskutiert. Großereignissen wie den Olympischen Spielen, Weltausstellungen, Gartenschauen oder der Europäischen Kulturhauptstadt eilt der Ruf voraus, Entwicklungsimpulse in den Ausrichterstädten zu setzen oder einen Wendepunkt in der Stadtentwicklung zu markieren. Die fachliche Diskussion eint, dass Großereignisse die Umsetzung von Stadtentwicklungsprojekten beschleunigt. Ebenso gehört die Mobilisierung von Fördermitteln, die Bündelung personeller Ressourcen und die Stärkung der Wettbewerbsfähigkeit der Ausrichterstadt zu weiteren bekannten Auswirkungen. Diese zu erwartenden positiven Effekte motiviert Städte immer wieder sich für Großereignisse zu bewerben. Doch was passiert, wenn Städte mit der Großereignisbewerbung scheitern? Die Dissertation konzentriert sich auf das Phänomen, dass zwischen 2000 und 2010 eine Vielzahl deutscher Städte mehrfach mit Bewerbungen für Großereignisse scheiterten. Inwieweit bestand ein Zusammenhang zwischen den verschiedenen Bewerbungsprozessen einer Stadt bzw. zu Stadtentwicklungsstrategien? Welche Effekte riefen die Bewerbungsprozesse in den Städten hervor und worauf lassen sich die Effekte zurückführen? Diesen Fragen wird durch die Analyse von 11 Fallstädten nachgegangen. Die recherchierten und aufgearbeiteten Informationen über die gescheiterten Großereignisbewerbungen und deren Effekte zeigen, dass die Bewerbungsprozesse oftmals der Ausgangspunkt für weitere Entwicklungen gewesen sind. Bewerbungsbücher, Bewerbungskonzeptionen und Machbarkeitsstudien enthalten viele Informationen über die Bewerberstädte, Zukunftsideen und Projekte zur Verbesserung der Lebensqualität in der Stadt. Sie stellen damit Belege dar, die einen bestimmten Entwicklungsabschnitt der ehemaligen Bewerberstädte dokumentieren und strategischen Stadtentwicklungsdokumenten ähneln.
APA, Harvard, Vancouver, ISO, and other styles
6

Alaux, Christophe. "L'impact des instruments des politiques publiques environnementales sur le processus de décision du consommateur : l'achat de voitures à faible émission de carbone." Thesis, Aix-Marseille 3, 2011. http://www.theses.fr/2011AIX32084.

Full text
Abstract:
Les politiques publiques environnementales cherchent à impacter des comportements de consommation. Néanmoins, la relation causale entre l’action publique mise en œuvre et le changement de comportement se caractérise par des discontinuités. Elle doit donc être approfondie en combinant l’angle d’analyse des politiques publiques et du processus de décision du consommateur. En effet, ce dernier dépend également d’autres déterminants psychosociaux et d’autres facteurs contextuels. L’impact spécifique des instruments des politiques publiques doit cependant pouvoir y être distingué. Notre étude sur la politique publique environnementale française visant à l’acquisition de voitures à faibles émissions de carbone permet de comprendre l’impact des instruments des politiques publiques sur le processus de décision d’achat du consommateur. En effet, l’attitude envers les instruments de l’action publique produit des effets sur le processus de décision du consommateur. Cet impact n’est pas direct, mais il modère les relations causales entre les principaux déterminants du comportement. Ces effets modérateurs dépendent de la nature psychologique ou structurelle des instruments des politiques publiques qui impactent des relations spécifiques du processus de décision du consommateur
Environmental public policy tools aim to impact consumer behavior. Nevertheless, the causal relationship system between the implementation of a public policy and behavior is full of disconnections. Thus, it should be deepen with the combined analysis of public policies and consumer decision process. Indeed, this latter also depends on others psychosocial determinants towards behavior and other contextual forces. The impact of public policy tools need to be distinguished among them.Our study on the French environmental public policy aimed at acquiring low-carbon emission cars focuses on understanding the impact of public policy tools on consumer buying decision process. Indeed, the attitude towards public policy tools affects consumer decision process. It results that the impact is not so direct but it moderates the relationship between the main determinants of behavior. These moderation effects depend on the psychological or structural nature of the public policy tools which impacts specific relationships of the consumer decision process
APA, Harvard, Vancouver, ISO, and other styles
7

Gulseven, Yahya. "Failed State Discourse As An Instrument Of The Us Foreign Policy In The Post Cold War Era." Master's thesis, METU, 2005. http://etd.lib.metu.edu.tr/upload/3/12606726/index.pdf.

Full text
Abstract:
This thesis focuses on the use of the term &lsquo
failed state&rsquo
as a category in the US foreign policy discourse in the post Cold War era. The concept of &lsquo
failed state&rsquo
is critically examined in terms of its methodological and ontological flaws. It is suggested that the primary methodological flaw of the failed state discourse is its atomistic and essentialist approach which describes &lsquo
state failure&rsquo
as an internal problem which needs external solutions. By rejecting the internal/external dichotomy, the dialectical method is offered as an alternative to examine the use of the term in the US foreign policy discourse in the post Cold War era. It is argued here that failed state discourse is used as a means in the justification of an international order based on &lsquo
preemptive strikes&rsquo
and unilateral economic, political and military interventions. Building upon this ideological function of failed state discourse, the current discusssions on state failure is related to contemporary debates on imperialism.
APA, Harvard, Vancouver, ISO, and other styles
8

Yakshin, Andrei. "Réalisation et caractérisation de miroirs multicouches conventionnels pour rayons X : application aux faibles périodes et aux variations latérales d'épaisseurs." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30077.

Full text
Abstract:
Depuis plus d'une dizaine d'annees, on sait realiser des miroirs pour le rayonnement x a partir d'empilements periodiques de materiaux metal/dielectrique dont les epaisseurs sont comparables a celles de la longueur d'onde utilisee (10-100 a). Dans ce but, le procede de pulverisation r. F. Magnetron que nous avons developpe, etudie et applique a la realisation de multicouches est parfaitement stable et reproductible. Ce travail, realise dans le cadre du laboratoire d'optique electromagnetique, s'appuie sur une etude approfondie de la croissance des couches (depot, repulverisation, temps mis par les atomes a adherer au substrat). A partir de cette etude et grace a la parfaite repetabilite du procede, nous avons pu calibrer exactement notre dispositif et fabriquer ensuite des multicouches de tres courtes periodes d (d 15 a) constituees d'un grand nombre de couches (900) avec une reflectivite importante. Cette calibration nous a permis egalement de realiser des multicouches a variation d'epaisseur selon le rang de l'empilement souvent appelees supermiroirs. De plus, il est maintenant possible de realiser des empilements dont les variations laterales d'epaisseur peuvent suivre une loi quelconque. Ces deux dispositifs permettent et permettront le developpement de nouvelles optiques pour le rayonnement issu non seulement d'un tube x conventionnel, mais surtout d'un anneau synchrotron comme bessy ii ou le futur synchrotron francais soleil
APA, Harvard, Vancouver, ISO, and other styles
9

Doganova, Liliana. "Faire valoir l'exploration collective : dynamiques, instruments et résultats des partenariats avec des spin-offs académiques." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00564115.

Full text
Abstract:
Comment évaluer le rôle que jouent les spin-offs académiques - ces entreprises créées pour valoriser les résultats de la recherche publique ? Pour répondre à cette question, cette thèse envisage les spin-offs dans leurs interactions avec les acteurs hétérogènes qui composent les réseaux techno-économiques de l'innovation. Elle décrit l'entrepreneuriat académique comme un processus d'exploration et de consolidation de nouvelles technologies, marchés et relations. De plus, la thèse examine ce que produisent les collaborations inter-organisationnelles qui se nouent au cours de ce processus. Elle montre notamment la diversité des effets générés, en distinguant la contribution de différents types de partenariats (d'exploration, d'exploitation et ambidextres) à différentes dimensions de l'innovation. Enfin, la thèse étudie la manière dont la valeur de ces associations exploratoires est construite dans la pratique d'une action collective qui engage les spin-offs et leurs partenaires et qui mobilise des dispositifs de " valuation " particuliers.
APA, Harvard, Vancouver, ISO, and other styles
10

Sébastien, Olivier. "Gestion des Savoir-Faire par les Systèmes d'Information : une Application à l'Apprentissage Instrumental." La Réunion, 2009. https://theses.hal.science/tel-01386383.

Full text
Abstract:
Ce travail de recherche vise à apporter une contribution au domaine de la gestion de la connaissance en général, et à la transmission des savoir-faire en particulier. Comparés à d'autres compétences, les savoir-faire ont ceci de particulier qu'il est difficile d'en produire une représentation écrite à des fins de réutilisation, de transmission ou de conservation. Bien que cette situation ait prévalu pendant longtemps, les systèmes d'information multimédia disponibles aujourd'hui permettent d'explorer de nouvelles approches telles que l'insertion de la trace audio-visuelle d'un savoir-faire existant dans un environnement d'apprentissage virtuel, dans le but de le faciliter. La musique, qui requiert simultanément des connaissances théoriques et des compétences pratiques, offre un environnement particulièrement propice à ce type d'expérimentation. C'est pourquoi nous avons choisi pour notre travail de thèse l'apprentissage de la guitare par un dispositif de e-learning instrumental. Inspirée de l'approche considérée comme la mieux rodée et la plus efficace - le cours traditionnel du maître à l'élève - notre démarche a consisté à « l'instrumenter », c'est-à-dire à en capter les canaux d'information les plus utiles, puis à les stocker sous forme numérique pour les rendre ensuite disponibles sous une forme simple et facilement exploitable par une communauté d'apprenants. La méthode utilisée pour recueillir l'information à la source se veut peu contraignante et réaliste, fondée sur un concept original de co-construction avec les utilisateurs, que nous avons désigné par Plateau de Créativité. C'est un espace de création collective intégrant mise en œuvre du savoir-faire et technologies de captation et de codage des données, dans une interaction continue permettant les ajustements successifs afin que le résultat final constitue bien une réponse au problème posé. Nous rendons également compte dans la thèse de cette expérience de mise en œuvre d’un plateau de créativité
This research aims at contributing to knowledge management and skills transmission particularly. They are known to be difficult to be represented with words, for conservation purpose for instance. This situation lasted for long but nowadays, Information Technologies allow to draw new approaches. Therefore, we have attempted to find out how they could be involved in the learning process in order to facilitate it. We have chosen instrumental e-learning, the guitar more precisely, as an experimental frame. Indeed, Music is a good field of work because it requires both theorical knowledge and practical skills. Our idea consists in studying the most efficient way to learn it, that is to say the traditional lesson from a teacher to a learner, and to engineer it. We propose a method without heavy constraints to capture most relevant information streams, store them in a digital format and then make them easily usable by a community of students. Development has been realized by instantiating an original concept of co-building with users nammed the Co-Design Plateform. He ensures that the final result does match the initial problem. Our contribution also makes an assessement of this experiment
APA, Harvard, Vancouver, ISO, and other styles
11

Alaux, Christophe. "L'impact des instruments des politiques publiques environnementales sur les processus de décision du consommateur: l'achat de voitures à faibles émissions de carbone." Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2011. http://tel.archives-ouvertes.fr/tel-00690205.

Full text
Abstract:
Les politiques publiques environnementales cherchent à impacter des comportements de consommation. Néanmoins, la relation causale entre l'action publique mise en œuvre et le changement de comportement se caractérise par des discontinuités. Elle doit donc être approfondie en combinant l'angle d'analyse des politiques publiques et du processus de décision du consommateur. En effet, ce dernier dépend également d'autres déterminants psychosociaux et d'autres facteurs contextuels. L'impact spécifique des instruments des politiques publiques doit cependant pouvoir y être distingué. Notre étude sur la politique publique environnementale française visant à l'acquisition de voitures à faibles émissions de carbone permet de comprendre l'impact des instruments des politiques publiques sur le processus de décision d'achat du consommateur. En effet, l'attitude envers les instruments de l'action publique produit des effets sur le processus de décision du consommateur. Cet impact n'est pas direct, mais il modère les relations causales entre les principaux déterminants du comportement. Ces effets modérateurs dépendent de la nature psychologique ou structurelle des instruments des politiques publiques qui impactent des relations spécifiques du processus de décision du consommateur.
APA, Harvard, Vancouver, ISO, and other styles
12

Rhouni, Amine. "Étude de fonctions électroniques en technologie ASIC pour instruments dédiés à l'étude des plasmas spatiaux." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00974808.

Full text
Abstract:
La couronne solaire est la source d'un vent de plasma qui interagit avec les divers objets du système solaire : planètes, comètes et astéroïdes. Le développement des instruments destinés à être embarqués à bord de satellites et de sondes spatiales permet d'étudier, in situ, les relations soleil Terre et plus généralement le vent solaire et les environnements ionisés planétaires. L'étude de ces phénomènes nécessite la combinaison d'instruments permettant de caractériser à la fois les ondes et leurs particules. Nous nous sommes intéressés à l'intégration de l'électronique des instruments spatiaux, et notamment la chaine d'amplification analogique de magnétomètres à induction et la chaîne d'amplification / discrimination de détecteurs de particules, en technologie standard CMOS 0.35 m. Les circuits étudiés, associés respectivement au magnétomètre à induction et au détecteur de particules, permettent l'amplification faible bruit à basse fréquence et l'amplification ultrasensible de charge sur une large gamme. Ces circuits doivent en outre répondre aux exigences du spatial en terme de consommation, tenue en température et en radiation. Le mémoire de thèse s'articule autour de la présentation de l'environnement ionisé de la Terre, la présentation des instruments scientifiques (magnétomètre spatial et détecteur de particules), la description des architectures des circuits CMOS permettant d'atteindre des performances inédites. Un travail important sur les structures d'amplifications a été mené afin de réduire considérablement la consommation et augmenter la sensibilité de la chaine électronique de traitement du détecteur de particules. Ainsi, la faisabilité d'une électronique intégrée multivoie pour l'analyseur de particules à optique hémisphérique contenant jusqu'à 256 pixels a été prouvée. Réduire le niveau de bruit en basse fréquence (de quelques 100 mHz à quelque 10 kHz) des circuits à base de composants MOS a toujours été une tache fastidieuse, puisque ce type de composants n'est à la base, pas destiné à une telle gamme de fréquence. Il a été donc nécessaire de concevoir des structures d'amplification originales par la taille non habituelle, voir à la limite autorisée par les procédés de fabrication, de leur transistors d'entrée. Cette solution a permis de réduire considérablement le niveau de bruit vu à l'entrée de l'électronique d'amplification des fluxmètres. L'avantage d'utiliser une technologie CMOS est le faible bruit en courant, la faible consommation et résoudre le problème de l'encombrement. Les résultats obtenus lors des tests de validations et en radiations sont très satisfaisants. Ils permettent d'ouvrir une éventuelle voie pour l'électronique intégrée au sein de l'instrumentation spatiale. Les performances obtenues notamment lors d'un tir fusée a renforcé la fiabilité d'une telles conceptions pour le domaine spatial.
APA, Harvard, Vancouver, ISO, and other styles
13

Rengnez, Florentin. "Développement de comparateur cryogénique de courants très faible bruit pour la métrologie électrique quantique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN009/document.

Full text
Abstract:
Dans un contexte de besoin grandissant en précision dans la mesure des faibles courants pour les instituts nationaux de métrologie, l’industrie, les fabricants d’instruments et la physique fondamentale, l’étude des dispositifs à un électron (SET) capables de générer un courant continu directement proportionnel à une fréquence et la charge élémentaire, couplés à un amplificateur de courant très performant, le comparateur cryogénique de courant (CCC), devient pertinente pour réaliser un étalon quantique de courant. Dans ce contexte, les travaux ont été poursuivis au LNE sur l’étude de nouveaux dispositifs SET et le développement de nouveaux CCC. Durant cette thèse, un montage expérimental a été mis en place afin d’évaluer les performances d’un nouveau CCC, constitué d’une conception originale et de 30 000 tours. Les résultats expérimentaux obtenus sont satisfaisant par rapport aux objectifs fixés, que ce soit en termes de résolution en courant, d’erreurs, de stabilité des mesures et de reproductibilité. Le CCC développé durant la thèse peut donc être utilisé pour quantifier de manière métrologique les dispositifs à un électron. De plus, une modélisation réalisée à partir d’un schéma électrique équivalent a été mis en place afin de simuler le comportement réel du CCC en prenant en compte les aspects magnétiques et électriques mis en jeu. Cette simulation a permis la quantification de l’erreur due aux fuites de courants au travers des capacités parasites entourant les enroulements. Les résultats de la simulation indiquent que cette erreur atteint 10 10 à la fréquence de travail, ce qui est inférieure de deux ordres de grandeurs à l’erreur maximale tolérable : 10-8. Les résultats expérimentaux et de modélisation fournissent de nouveaux éléments d’amélioration de la conception de CCCs de grand gain. Enfin, la modélisation développée, une fois insérée dans une routine d’optimisation, pourra aussi être un outil de conception des CCCs très utile
In a context of growing need of precision in measuring low currents for national metrology institutes, industry, instrument manufacturers and fundamental physics, study of single-electron tunneling (SET) devices capable of generating a direct current directly proportional to the frequency and the elementary charge, coupled with a high performance current amplifier, the cryogenic current comparator (CCC), becomes relevant to realize a quantum current standard. In this framework, at LNE, study of new SET devices and the development of CCCs continues. In this thesis, an experimental setup was implemented to evaluate the performance of a new CCC, consisting of a new design and 30 000 turns. The experimental results fulfill our goals, whether in terms of current resolution, errors, measurement stability and reproducibility. The CCC developed during the thesis can thus be used to metrologically quantify SET devices. In addition, a model based on an equivalent circuit diagram has been developed to simulate the actual behavior of the CCC, taking into account the magnetic and electrical aspects involved. This simulation allows the quantification of the error due to currents leakage through parasitic capacitances surrounding the windings. Results of the simulation indicate that this error reaches 10 10, which is less, by two orders of magnitude, than the maximum tolerable error: 10 8. Results obtained experimentally and by simulation provide new improvement elements in the design of high ratio CCCs. The developed model, once inserted into an optimization routine, can also be a very useful design tool of CCCs
APA, Harvard, Vancouver, ISO, and other styles
14

Daigle, Olivier. "Spectro-imagerie optique à faible flux et comparaison de la cinématique Hα et HI d'un échantillon de galaxies proches." Aix-Marseille 1, 2010. http://www.theses.fr/2010AIX10141.

Full text
Abstract:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0. 002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques
A new EMCCD (Electron multiplying Charge Coupled Device) controller is presented. It allows the EMCCD to be used for photon counting by drastically taking down its dominating source of noise : the clock induced charges. A new EMCCD camera was built using this controller. It has been characterized in laboratory and tested at the observatoire du mont Mégantic. When compared to the previous generation of photon counting cameras based on intensifier tubes, this new camera renders the observation of the galaxies kinematics with an integral field spectrometer with a Fabry-Perot interferometer in Ha light much faster, and allows fainter galaxies to be observed. The integration time required to reach a given signal-to-noise ratio is about 4 times less than with the intensifier tubes. Many applications could benefit of such a camera: fast, faint flux photometry, high spectral and temporal resolution spectroscopy, earth-based diffraction limited imagery (lucky imaging), etc. Technically, the camera is dominated by the shot noise for flux higher than 0. 002 photon/pixel/image. The 21 cm emission line of the neutral hydrogen (HI) is often used to map the galaxies kinematics. The extent of the distribution of the neutral hydrogen in galaxies, which goes well beyond the optical disk, is one of the reasons this line is used so often. However, the spatial resolution of such observations is limited when compared to their optical equivalents. When comparing the HI data to higher resolution ones, some differences were simply attributed to the beam smearing of the HI caused by its lower resolution. The THINGS (The HI Nearby Galaxy Survey) project observed many galaxies of the SINGS (Spitzer Infrared Nearby Galaxies Survey) project. The kinematics of THINGS will be compared to the kinematic data of the galaxies obtained in Ha light. The comparison will try to determine whether the sole beam smearing is responsible of the differences observed. The results shows that intrinsic dissimilarities between the kinematical tracers used are responsible of some of the observed disagreements. The understanding of theses differences is of a high importance as the dark matter distribution, inferred from the rotation of the galaxies, is a test to some cosmological models
APA, Harvard, Vancouver, ISO, and other styles
15

Portalier, Elodie. "Etude du bruit excédentaire, en 1/f, aux basses fréquences dans les dispositifs basés sur l’effet Magnéto-Impédant Géant." Caen, 2016. http://www.theses.fr/2016CAEN2041.

Full text
Abstract:
L’effet Magnéto-Impédant Géant (MIG) consiste en une forte variation de l’impédance d’un matériau ferromagnétique conducteur parcouru par un courant alternatif de haute fréquence et soumis à une variation d’un champ magnétique externe. Ce travail de thèse présente l’étude du bruit excédentaire, en 1/f, aux basses fréquences dans les dispositifs basés sur l’effet MIG. Ce dernier limitant, en effet, les performances en bruit du dispositif. La détermination des contributions en bruit des étages de la chaîne d’instrumentation comprenant l’étage de polarisation, l’élément sensible MIG ainsi que l’étage de conditionnement électronique ont été déterminé à l’aide de l’évaluation de la fonction de cohérence fréquentielle. Nous avons ainsi pu montrer que le niveau de bruit aux basses fréquences est fortement dépendant des conditions d’excitation. Cette technique originale a permis de mesurer le niveau de bruit intrinsèque des dispositifs à effet MIG. Par ailleurs, un modèle théorique, dépendant de la fréquence, du bruit intrinsèque de nos microfils est proposé. Ce dernier prend en compte le mécanisme de fluctuations de la direction de l’aimantation comme cause du bruit intrinsèques des microfils. A partir du théorème de Fluctuation-Dissipation, nous exprimons la densité spectrale de bruit équivalent en champ. Cette dernière est directement proportionnelle à la dépendance en fréquence de la partie imaginaire de la susceptibilité magnétique,. Par la suite, deux méthodes expérimentales sont mises œuvre afin de l’évaluer. Finalement, une comparaison est effectuée entre les niveaux de bruit équivalent en champ attendus et mesurés. Un bon accord a été trouvé laissant penser que le modèle de bruit proposé permet de quantifier raisonnablement le bruit excédentaire à basse fréquence des microfils MIG
The Giant Magneto-Impedance effect (GMI) consists in the large variation of the impedance of a ferromagnetic conductor excited by a high frequency alternative current and submitted to a variation of an external magnetic field. This thesis work presents the study of the low frequency, 1/f, excess noise in GMI based devices. The latter limiting the noise performances of the device. The determination of the noise contribution of each stage of the instrumentation channel including the polarization stage, the sensing element and the electronic conditioning stage have been determined using frequency coherence measurements. We have shown that the low frequency noise level is strongly dependent upon the excitation conditions. This original technic has permitted the evaluation of the intrinsic noise of the GMI based device. Furthermore, a frequency dependent theoretical model of the intrinsic noise of the GMI microwire is proposed. The latter takes into account the mechanism of the magnetization direction fluctuations as the cause for the instrinsic noise of the microwire. From the Fluctuation-Dissipation theorem, we express the equivalent magnetic noise power spectral density. The latter is directly proportional to the frequency dependence of the imaginary part of the magnetic susceptibility,. Thus, two experimental methods are implemented in order to evaluate it. Finally, a comparison is carried out between the equivalent magnetic noise level measured and expected. A good agreement is found implying that the noise model proposed is efficient to reasonably quantify the low frequencies excess noise of GMI microwires
APA, Harvard, Vancouver, ISO, and other styles
16

Mamou-Mani, Adrien. "Précontraintes et vibration des tables d'harmonie : vers une modélisation du savoir-faire des fabricants d'instruments de musique." Paris 6, 2007. http://www.theses.fr/2007PA066630.

Full text
Abstract:
Le savoir-faire des fabricants contient de multiples techniques à l'origine de la qualité de l'instrument. L'objectif est ici d'apporter des éléments de compréhension de ces techniques grâce à la modélisation mécanique. L'étude s'est concentrée sur deux étapes de la fabrication du piano nommées "la charge" et "le bombé" des tables d'harmonie. Des modèles de structures précontraintes sont proposés pour évaluer les effets vibratoires de ces techniques de fabrication. Un calcul numérique sur une structure proche d'une table de piano montre que "la charge" et "le bombé" ont des effets complémentaires sur ses propriétés vibratoires. Ces effets sont retrouvés analytiquement sur des systèmes simples précontraints. Excités proche de points critiques, ces systèmes montrent des caractéristiques vibratoires non-linéaires. Ces résultats sont retrouvés expérimentalement sur un monocorde avec une table d'harmonie précontrainte. Le son de ce prototype est largement modifié par les précontraintes.
APA, Harvard, Vancouver, ISO, and other styles
17

El, cheikh Samah. "Le rôle des Credit Default Swaps dans les crises de la dette souveraine. Une application au cas de la zone euro." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR0006/document.

Full text
Abstract:
Cette thèse porte sur l'étude des facteurs sous-jacents au risque du défaut souverain, tel que mesuré par les spreads des CDS souverains, au cours de la crise de la dette souveraine en Europe. En analysant les données mensuelles de janvier 2007 à septembre 2015 en utilisant un modèle à correction d'erreur (VECM), nous constatons que le risque de défaut souverain européen répond en partie à un environnement macroéconomique caractérisé par de mauvaises politiques budgétaires et une détérioration des facteurs économiques. Plus précisément, la hausse du taux de chômage, le niveau d'endettement et la réduction des soldes de la balance courante ont accru les spreads des CDS souverains. Ces résultats ne permettent pas de rejeter l’hypothèse selon laquelle le défaut souverain a été motivé par des fondamentaux économiques faibles. Mais l'importance relative de ces facteurs change avec le temps et le groupe de pays. La présence et l'absence de la Grèce ont joué un rôle clé dans l'évolution des spreads dans les pays de la zone euro. La dégradation des notations en Grèce et l'aversion accrue pour le risque de la part des Européens ont contribué à une augmentation significative des spreads de CDS des pays de la zone euro et des autres pays. Notre analyse VECM met en évidence des retombées directes de la Grèce vers la périphérie de la zone euro via des canaux non fondamentaux. Enfin, nos résultats suggèrent que l’émergence de la crise de la dette a été causée par des fondamentaux faibles, mais a également un caractère auto-réalisateur
This thesis attempts to identify the factors behind the sovereign default risk, as measured by sovereign CDS spreads, during the sovereign debt crisis in Europe. By analyzing monthly data from January 2007 to September 2015 using vector error correction model with panel data, we find that European sovereign default risk is partly a response to a macroeconomic environment characterized by poor fiscal policies and deteriorating economic factors. Specifically, higher unemployment rate, debt levels and lower current account balances have increased the sovereign CDS spreads. These results do not allow us to reject the hypothesis that the sovereign default was driven by weak economic fundamentals. But the relative importance of these factors changes over time and group of countries. The presence and absence of Greece have played a key role in the developments of the spreads in the euro area countries. The rating downgrades in Greece and the higher European risk aversion had contributed to a significant rise in the CDS spreads of euro and non-euro area countries. Our VECM analysis does suggest direct spillovers from Greece to Euro area periphery via non-fundamental channels. Finally, our results suggest that the emergence of the debt crisis was caused by weak fundamentals but has also a self-fulfilling character
APA, Harvard, Vancouver, ISO, and other styles
18

Fluckiger, Cédric. "L'appropriation des TIC par les collégiens dans les sphères familières et scolaires." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00422204.

Full text
Abstract:
Les jeunes adolescents sont couramment dépeints comme familiers des TIC, acculturés depuis l'enfance à leur usage et particulièrement experts dans leur manipulation. Cette thèse vise à saisir, au-delà de l'hypothèse de sens commun d'un « bain » dans lequel baigneraient les jeunes actuels, le processus d'appropriation des ordinateurs par les jeunes adolescents. Le cadre conceptuel proposé articule les apports de la sociologie dispositionnaliste de Bernard Lahire, qui permet de rendre compte de la pluralité des univers d'appropriation, et les concepts de schème d'utilisation et d'instrument, développés par l'approche instrumentale de Pierre Rabardel, qui permet de caractériser ce qui s'incorpore dans l'usage des outils informatiques et de rendre compte de la nature instrumentale des logiques d'action mises en oeuvre. La thèse montre que le développement des usages et du jeu des compétences techniques est étroitement articulé à la construction de soi et aux formes de sociabilité adolescentes, mais que la pluralité des univers d'usage des outils informatiques conduit à une pluralité des formes d'appropriation, source d'une différenciation interpersonnelle et d'une hétérogénéité interne des dispositions et schèmes d'utilisation incorporés. L'appropriation générationnelle, ludique et pragmatique, conduit à une familiarisation pratique permettant l'incorporation de savoir-faire locaux ; l'appropriation familiale passant par la transmission de ce que nous analysons comme un capital informatique conduit à une variabilité inter-individuelle des dispositions à l'usage ; tandis que l'appropriation scolaire, en rupture avec les usages familiers aux élèves, conduit à une manipulation consciente et structurée produisant une variabilité intra-individuelle des schèmes d'utilisation.
APA, Harvard, Vancouver, ISO, and other styles
19

Christoforou, Georges. "Conception de préamplificateurs intégrés pour fonctionnement à basse température et sous rayonnement intense." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10031.

Full text
Abstract:
Le grand nombre de voies d'acquisition des signaux issus du calorimetre electromagnetique du detecteur atlas (machine lhc) pose un probleme de cablage et des solutions prevoyant le placement de la partie amont de la chaine electronique d'acquisition dans le meme milieu que l'element froid de detection ont ete envisagees. L'electronique amont doit donc etre resistante aux radiations (2 10#1#4n/cm#2, 0. 5mrad), fonctionner a la temperature de l'argon liquide (89k), avoir un faible niveau de bruit, une non-linearite inferieure a 1%, consommer peu et etre rapide (40mhz). Dans le cadre de ce projet nous avons explore les possibilites offertes par les differentes technologies. Nous avons retenu les technologies asga qui resistent aux radiations et fonctionnent jusqu'a des temperatures cryogeniques. Nous avons mis en evidence au moyen de caracterisations (a basse temperature) le fait que les technologies asga sont capables de fonctionner dans un tel environnement. Les amplificateurs concus presentent une amelioration de leurs performances quand ils fonctionnent a basse temperature (reduction du bruit, reduction de la puissance dissipee augmentation du gain) rencontrant les contraintes posees par la calorimetrie dans atlas, faible niveau de bruit, faible puissance dissipee, grande dynamique de sortie et bonne non-linearite integrale, mais ne sont pas encore capables d'assurer un niveau de fiabilite de fabrication suffisant. Nous abordons egalement le probleme de la simulation des mesfet a basse temperature. Les modeles manquant, nous avons employe pour la simulation des parametres spice extraits a la temperature de l'azote liquide. Finalement, nous avons approfondi la simulation du bruit des circuits analogiques et mis en evidence les problemes existant ainsi que les precautions a prendre afin de rendre la simulation spice du bruit plus fiable.
APA, Harvard, Vancouver, ISO, and other styles
20

Doukali, Mohamed. "Regularized Jackknife estimation with many instruments." Thèse, 2016. http://hdl.handle.net/1866/18512.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Doko, Tchatoka Sabro Firmin. "Exogeneity, weak identification and instrument selection in econometrics." Thèse, 2010. http://hdl.handle.net/1866/3886.

Full text
Abstract:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
The last decade shows growing interest for the so-called weak instruments problems in the econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory variables. More generally, these can be viewed as situations where model parameters are not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio and Lagrange multiplier criteria in structural models - have non-standard distributions and often depend heavily on nuisance parameters. Several empirical studies including the estimation of returns to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982, 1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira (2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference. However, little is known about the quality of these procedures when the instruments are invalid or both weak and invalid. This raises the following question: what happens to inference procedures when some instruments are endogenous or both weak and endogenous? In particular, what happens if an invalid instrument is added to a set of valid instruments? How robust are these inference procedures to instrument endogeneity? Do alternative inference procedures behave differently? If instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting "good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection procedure which will be valid even in presence of weak identification? This thesis focuses on structural models and answers these questions through four chapiters. The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with or without weak instruments. First, when the level of instrument endogeneity is fixed (does not depend on the sample size), we show that all these procedures are in general consistent against the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest), whether the instruments are "strong" or "weak". We also describe situations where this consistency may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral chi-square distributions with or without weak instruments, and describe situations where the non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of valid instruments (despite the presence of invalid instruments). The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH) specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis (power), including when identification is deficient or weak (weak instruments). Our finite-sample analysis provides several new insights and extensions of earlier procedures. The characterization of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such tests are typically robust to weak instruments (level is controlled). Furthermore, we provide a characterization of the power of the tests, which clearly exhibits factors which determine power. We show that DWH-tests have no power when all instruments are weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments are weak (a case of little practical interest). Our asymptotic distributional theory under weaker assumptions confirms the finite-sample theory. Moreover, we present simulation evidence indicating: (1) over a wide range cases, including weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance compared with usual IV estimator. We illustrate our theoretical results through simulation experiment and two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)] to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important challenge in econometrics. This problem occurs in many applied works. For example, in the well know wage model, one should like to assess if mother’s education is exogenous without imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of the constructed instrument on the basis of geographical characteristics for the trade share is often questioned and needs to be tested without constraining trade share and the other variables. Standard exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve such problems. A potential cure for dealing with partial exogeneity is the use of the generalized linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of model errors and it is not clear how robust is this test to non-gaussian errors. We develop in this chapter, a modified version of earlier procedure which is valid even when model errors are not normally distributed. We present simulation evidence indicating that when identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors. Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a GW-test is used in the first stage to decide which variables should be instruments and which ones are valid instruments. We illustrate our theoretical results through two empirical applications: the well known wage equation and the returns to scale in electricity supply. The results show that the GW-tests cannot reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for estimating the returns to scale. The fourth chapter develops identification-robust inference for the covariances between errors and regressors of an IV regression. The results are then applied to develop partial exogeneity tests and partial IV pretest-estimators which are more efficient than usual IV estimator. When more than one stochastic explanatory variables are involved in the model, it is often necessary to determine which ones are independent of the disturbances. This problem arises in many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to assess whether the interest rate is exogenous without imposing additional assumptions on inflation rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW) procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as testing linear restrictions on covariances assumes that the available instruments are strong. When the instruments are weak, the GW-test is in general size distorted. As a result, its application in models where instruments are possibly weak–returns to education, trade and economic growth, life cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may be misleading. To answer this problem, we develop a finite-and large-sample valid procedure for building confidence sets for covariances allowing for the presence of weak instruments. We provide analytic forms of the confidence sets and characterize necessary and sufficient conditions under which they are bounded. Moreover, we propose two new pretest-estimators of structural parameters based on our above procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore, this can be viewed as a variable selection method where the projection-based techniques is used to decide which variables should be instrumented and which ones are valid instruments. We illustrate our results through two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. The results show unbounded confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the literature [Bound (1995)].
APA, Harvard, Vancouver, ISO, and other styles
22

Krause, Cindy. "Großereignisbewerbungen als Instrument aktiver Stadtentwicklungspolitik:: Eine vergleichende Analyse mehrfach gescheiterter Städte in Deutschland." Doctoral thesis, 2015. https://tud.qucosa.de/id/qucosa%3A29919.

Full text
Abstract:
Seit den 1990er Jahren werden Großereignisse in der Stadtsoziologie und den Planungswissenschaften als Instrumente der Stadtentwicklungspolitik diskutiert. Großereignissen wie den Olympischen Spielen, Weltausstellungen, Gartenschauen oder der Europäischen Kulturhauptstadt eilt der Ruf voraus, Entwicklungsimpulse in den Ausrichterstädten zu setzen oder einen Wendepunkt in der Stadtentwicklung zu markieren. Die fachliche Diskussion eint, dass Großereignisse die Umsetzung von Stadtentwicklungsprojekten beschleunigt. Ebenso gehört die Mobilisierung von Fördermitteln, die Bündelung personeller Ressourcen und die Stärkung der Wettbewerbsfähigkeit der Ausrichterstadt zu weiteren bekannten Auswirkungen. Diese zu erwartenden positiven Effekte motiviert Städte immer wieder sich für Großereignisse zu bewerben. Doch was passiert, wenn Städte mit der Großereignisbewerbung scheitern? Die Dissertation konzentriert sich auf das Phänomen, dass zwischen 2000 und 2010 eine Vielzahl deutscher Städte mehrfach mit Bewerbungen für Großereignisse scheiterten. Inwieweit bestand ein Zusammenhang zwischen den verschiedenen Bewerbungsprozessen einer Stadt bzw. zu Stadtentwicklungsstrategien? Welche Effekte riefen die Bewerbungsprozesse in den Städten hervor und worauf lassen sich die Effekte zurückführen? Diesen Fragen wird durch die Analyse von 11 Fallstädten nachgegangen. Die recherchierten und aufgearbeiteten Informationen über die gescheiterten Großereignisbewerbungen und deren Effekte zeigen, dass die Bewerbungsprozesse oftmals der Ausgangspunkt für weitere Entwicklungen gewesen sind. Bewerbungsbücher, Bewerbungskonzeptionen und Machbarkeitsstudien enthalten viele Informationen über die Bewerberstädte, Zukunftsideen und Projekte zur Verbesserung der Lebensqualität in der Stadt. Sie stellen damit Belege dar, die einen bestimmten Entwicklungsabschnitt der ehemaligen Bewerberstädte dokumentieren und strategischen Stadtentwicklungsdokumenten ähneln.
APA, Harvard, Vancouver, ISO, and other styles
23

Jenkins, Bonnie Denise. "Why international instruments to combat nuclear proliferation succeed or fail : a study of the interaction of international and domestic level factors /." 2006. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:3218417.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Jenkins, Bonnie D. "Why international instruments to combat nuclear proliferation succeed or fail a study of the interaction of international and domestic level factors /." 2006. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&res_dat=xri:pqdiss&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&rft_dat=xri:pqdiss:3218417.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Kaffo, Melou Maximilien. "Essays on bootstrap in econometrics." Thèse, 2014. http://hdl.handle.net/1866/11429.

Full text
Abstract:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
My dissertation consists of three essays on bootstrap inference in both large panel data models and instrumental variable (IV) models with many instruments and possibly, many weak instruments. Since the asymptotic theory is often not a good approximation to the sampling distribution of test statistics and estimators, I consider the bootstrap as an alternative. These essays try to study the asymptotic validity of existing bootstrap procedures and when they are invalid, to propose new valid bootstrap methods. The first chapter (co-authored with Sílvia Gonçalves) studies the validity of the bootstrap for inference on a stationary linear dynamic panel data model with individual fixed effects. We consider three bootstrap methods: the recursive-design wild bootstrap, the fixed-design wild bootstrap and the pairs bootstrap. These methods are natural generalizations to the panel context of the bootstrap methods considered by \citeasnoun{GK} in pure time series autoregressive models. We show that the recursive-design wild bootstrap fixed effects OLS estimator contains a built-in bias correction term that mimics the incidental parameter bias. This is in contrast with the fixed-design wild bootstrap and the pairs bootstrap whose distributions are incorrectly centered at zero. As it turns out, both the recursive-design and the pairs bootstrap are asymptotically valid when applied to the bias-corrected estimator, but the fixed-design bootstrap is not. In the simulations, the recursive-design bootstrap is the method that does best overall. The second chapter extends our pairwise bootstrap results to dynamic nonlinear panel data models with fixed effects. These models are often estimated with the Maximum Likelihood Estimator (MLE) which also suffers from an incidental parameter bias. Recently, \citeasnoun{DhaeneJochmans} have proposed the split-jackknife estimation method. Although these estimators have asymptotic normal approximations that are centered at the true parameter, important size distortions remain in finite samples. \citeasnoun{DhaeneJochmans} have proposed the pairs bootstrap as an alternative in this context without a theoretical justification. To fill this gap, I show that this method is asymptotically valid when used to estimate the distribution of the half-panel jackknife estimator although it does not consistently estimate the distribution of the MLE. A Monte Carlo experiment shows that bootstrap-based confidence intervals that rely on the half-panel jackknife estimator greatly help to reduce the distortions associated to the normal approximation in finite samples. In addition, I apply this bootstrap method to a canonical model of female-labor participation to construct valid confidence intervals. In the last chapter (co-authored with Wenjie Wang), we study the asymptotic validity of bootstrap procedures for instrumental variable (IV) models with many weak instruments. We show analytically that a standard residual-based bootstrap and the restricted efficient (RE) bootstrap of Davidson and MacKinnon (2008, 2010, 2014) cannot consistently estimate the limiting distribution of the LIML estimator. The foremost reason is that they fail to adequately mimic the identification strength in the sample. Therefore, we propose a modified bootstrap procedure which consistently estimates this limiting distribution. Our simulations show that the modified bootstrap procedure greatly reduces the distortions associated to asymptotic Wald ($t$) tests in finite samples, especially when the degree of endogeneity is high.
APA, Harvard, Vancouver, ISO, and other styles
26

Tchuente, Nguembu Guy. "Essais en économetrie et économie de l'éducation." Thèse, 2014. http://hdl.handle.net/1866/11430.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography