To see the other types of publications on this topic, follow the link: Estimation du potentiel de marché.

Dissertations / Theses on the topic 'Estimation du potentiel de marché'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 46 dissertations / theses for your research on the topic 'Estimation du potentiel de marché.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wu, Ziqing. "Towards hyperconnected circular supply chains : conceptualization, demand estimation, and network design." Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2025. http://www.theses.fr/2025EMAC0002.

Full text
Abstract:
L'économie circulaire suscite un intérêt croissant tant dans le milieu académique que dans l'industrie, mais la mise en œuvre des principes circulaires continue de rencontrer des défis importants. En particulier, les chaînes logistiques dynamiques et les systèmes logistiques efficaces capables de soutenir des opérations circulaires restent sous-développés. Cette thèse aborde trois défis majeurs des chaînes logistiques circulaires et propose des contributions distinctes pour faire avancer ce domaine en évolution. Premièrement, elle explore l'intégration des principes de l'Internet Physique dans les chaînes logistiques circulaires. Les systèmes circulaires impliquent des flux complexes multidirectionnels de matériaux, une collaboration entre divers acteurs, et une participation active des clients finaux, ce qui engendre des défis opérationnels uniques. Les principes de l'Internet Physique — tels que les flux fluides, la collaboration entre les parties prenantes et les fonctionnalités plug-and-play — en font une solution potentiellement prometteuse à ces défis. Un cadre conceptuel est proposé, fusionnant les concepts de l'Internet Physique et des chaînes logistiques circulaires, et décrivant dix caractéristiques interconnectées. De plus, un modèle de maturité est développé pour aider les entreprises à évaluer leurs pratiques actuelles et à élaborer des plans d'action pour adopter ce cadre. La deuxième contribution traite du défi de l'estimation de la demande pour les nouvelles entreprises entrant dans l'économie circulaire. Un cadre d'estimation du potentiel de marché est proposé, intégrant des méthodes quantitatives et qualitatives. Ce cadre combine une analyse par regroupement, des techniques d'aide à la décision multicritères et des avis d'experts pour estimer le potentiel de marché sur la base des statistiques des produits existants et des recherches secondaires sur le marché. La troisième contribution se concentre sur la conception du réseau de la chaîne logistique dans le contexte de l'économie circulaire et de l'Internet Physique. Un système d'aide à la décision est développé, intégrant des modèles de programmation linéaire en nombres entiers pour optimiser les décisions de localisation des installations. Ce système incorpore le cadre conceptuel de la première contribution et exploite les scénarios de demande issus de la deuxième, offrant aux décideurs des solutions sur mesure pour la conception de réseaux. Les trois contributions sont illustrées à travers un cas industriel sur le rétrofit électrique des véhicules à moteur thermique, démontrant l'applicabilité et la pertinence des solutions proposées
The Circular Economy is receiving growing attention in both academia and industry, yet the implementation of circular principles continues to face significant challenges. In particular, dynamic supply chains and efficient logistics systems that can support circular operations remain underdeveloped. This thesis addresses three key challenges in circular supply chains and offers distinct contributions to advance this evolving field. First, it explores the integration of Physical Internet principles into circular supply chains. Circular systems involve complex multi-directional flows of materials, collaboration among diverse stakeholders, and active engagement from end customers, all of which introduce unique operational challenges. Physical Internet principles — such as seamless flows, stakeholder collaboration, and plug-and-play functionalities — position it as a promising potential solution to these challenges. A conceptual framework is introduced, merging Physical Internet and circular supply chain concepts, and detailing ten interrelated characteristics. Additionally, a maturity model is developed to help companies assess their current practices and devise action plans for adopting this framework. The second contribution addresses the challenge of demand estimation for new businesses entering the circular economy. A market potential estimation framework is proposed, incorporating both quantitative and qualitative methods. This framework combines clustering analysis, multi-criteria decision-making techniques, and expert judgment to estimate market potential based on existing product statistics and secondary market research. The third contribution focuses on supply chain network design within the Circular Economy and Physical Internet context. A decision-support system is developed, incorporating mixed-integer programming models to optimize facility location decisions. This system incorporates the conceptual framework from the first contribution and leverages demand scenarios from the second, offering decision-makers tailored solutions for network design. All three contributions are illustrated through an industrial case on the electric retrofitting of Internal Combustion Engine vehicles, demonstrating the applicability and relevance of the proposed solutions
APA, Harvard, Vancouver, ISO, and other styles
2

Lepez, Vincent. "Potentiel de réserves d'un bassin pétrolier : modélisation et estimation." Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00460802.

Full text
Abstract:
L'objectif de cette thèse est de construire un modèle statistique de la distribution des tailles des gisements d'hydrocarbures qui existent dans le sous-sol d'un bassin sédimentaire, ainsi que de celle des découvertes déjà effectuées. L'estimation des paramètres de ce modèle via l'estimation de la densité des observations par sélection de modèles de polynômes par morceaux par maximum de vraisemblance pénalisé nous permet de déduire des estimations du nombre de gisements restant à découvrir, par classe de taille. Nous supposons que l'ensemble des tailles des champs qui existent dans la nature est un échantillon d'effectif inconnu d'une loi de Lévy-Pareto de paramètre lui-même inconnu. Les champs déjà découverts en représentent un sous échantillon sans remise biaisé par un "effet taille", dont les probabilités d'inclusion sont à estimer. Nous montrons que la densité des observations est le produit de la densité sous-jacente et d'une fonction de pondération inconnue représentant le biais dans le tirage. Une partition arbitraire de l'intervalle des tailles étant fixée (un modèle), les solutions analytiques des programmes de maximisation de la vraisemblance permettent d'estimer le paramètre de la loi sous-jacente ainsi que la fonction de pondération supposée en escalier et basée sur la partition. Nous ajoutons éventuellement une contrainte de monotonie sur cette dernière, rendant compte du fait que plus un objet est grande taille et plus sa probabilité d'avoir été découvert est importante. Des estimateurs de type Horvitz-Thompson permettent alors de conclure. Nous faisons ensuite varier les partitions au sein de différentes classes et démontrons un théorème de sélection de modèles permettant de choisir la partition la mieux adaptée, en terme de risques Hellinger et Kullback de l'estimateur associé. Nous concluons par des simulations, ainsi que plusieurs applications à des données réelles de bassins sédimentaires de quatre continents pour illustrer les aspects tant théoriques que pratiques de notre modélisation.
APA, Harvard, Vancouver, ISO, and other styles
3

Glorieux, Nicolas. "Optimisation de la trajectoire des cadres, choix de mobilité interne et potentiel d'évolution." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50374-1999-7.pdf.

Full text
Abstract:
Cette thèse analyse l'influence du parcours antérieur sur les choix d'orientation lorsque deux types d'événements : les décisions de mobilité interne (verticale ou horizontale) et la décision de se séparer des cadres sont possibles. Une enquête empirique a identifié deux modèles de construction de la trajectoire, basés sur la maximisation du surplus (performance réalisée moins le coût de mobilité). Dans le modèle de surplus immédiat, tout changement est effectué afin de maximiser le surplus. Le modèle de surplus différé définit une série de mouvements, dans des emplois complémentaires, pour doter le cadre des capacités indispensables à l'occupation de l'emploi final et optimiser la contribution individuelle dans ce dernier. Il explique le phénomène de reproduction de la classe dirigeante par la transmission d'un savoir organisationnel nécessaire à la perpétuation de la firme. L'introduction des caractéristiques des emplois dans les choix de mobilité rend incertain le résultat du mouvement interne. Pour deux emplois différents, il y a une incertitude sur la capacité du cadre à maîtriser la part des capacités requises qui sont absentes ou demandées à un niveau inférieur dans l'emploi actuel. Le succès du mouvement n'est jamais garanti ex ante mais toujours vérifiable ex post. La formalisation des deux modèles à partir des choix d'investissements en environnement incertain montre que le décideur essaie de réduire cette incertitude à partir d'une sélection des individus sur leurs capacités et selon les liens existant entre les emplois (le degré de transférabilité). La firme exige une prime de performance, proportionnelle au niveau d'indétermination sur la réussite du changement, comme preuve de la capacité a priori du cadre à maîtriser la nouvelle fonction. La coexistence des deux modèles dépend de la capacité des individus à réussir le parcours prévu. La firme peut ainsi produire des cadres + généralistes ; ou des cadres + spécialistes ; d'un domaine particulier
This thesis analyse the influence of the previous career on the choice of career guidance when two possibilities are available: internal movement (vertical or lateral) and the decision of firing managers. An empirical study identified two models of career planning, based on the maximization of the net benefit (evaluated performance minus mobility cost). In the first model called + immediate benefit ;, each movement between different occupations is made in order to maximize the benefit. The second model called + delayed benefit ; define a series of movements into complementary occupations. A satisfying performance in the whole set of movements is a necessary condition to access the final occupation because it allows the manager to produce an optimal contribution into this job. This model explain the reproduction of the managerial personnel into big firms by the transmission of organizational knowledges necessary to the perpetuation of the enterprise. The fraction of the managers that are concerned by this procedure depend on the choice of external recruitment made by the employer. When considering occupational characteristics into the choice of internal mobility for two differents jobs, there is an uncertainty on the ability of the agent to master the required capacities in the new job which are missing in the actual job. The success of the mobility is never guarantee ex ante but always verifiable ex post by the observation of the performance in the new job. The fonnalization of the two models with the theory of choice of investment in uncertainty shows that the employer try to reduce this uncertainty by a selection on the individual capabilities and by the consideration of the link between the jobs. We called this link : the level of transferability between the occupations. The employer demand a premiun of performance, proportionnal to the degree of uncertainty, as a proof that the person is a priori able to master the new occupation. The coexistence of the two models depend on the capacity of the agent to achieve the anticipated trajectory. The firm can produce some + generalist ; managers or some + experts ; specialized into a particular field
APA, Harvard, Vancouver, ISO, and other styles
4

Ajouz, Sakhr. "Estimation du potentiel de résistance de Botrytis cinerea à des biofongicides." Phd thesis, Université d'Avignon, 2009. http://tel.archives-ouvertes.fr/tel-00453646.

Full text
Abstract:
La pourriture grise, causée par le champignon Botrytis cinerea, est l'une des principales maladies aériennes fongiques sur diverses cultures d'importance agronomique. La diversité génétique de B. cinerea est très forte et la capacité rapide d'adaptation de ce champignon à une pression sélective est également avérée. Ce champignon est ainsi capable de développer des résistances à une grande variété de composés fongicides de synthèse ou d'origine naturelle. Des méthodes alternatives de lutte ont de ce fait été développées ces dernières années : divers agents de lutte biologique (ALB) présentant différents modes d'actions ont été identifiés et pour certains d'entre eux commercialisés pour contrôler B. cinerea. Cependant la durabilité de la lutte biologique est un domaine encore très peu étudié. La perte d'efficacité d'un ALB pourrait résulter de la préexistence d'isolats moins sensibles de pathogènes dans les populations naturelles et/ou de la capacité de l'agent pathogène à produire, sous une pression de sélection continue exercée par l'ALB, des mutants ayant une sensibilité réduite. L'objectif global de la présente étude est d'évaluer le risque potentiel de perte d'efficacité de la lutte biologique vis-à-vis de B. cinerea. Dans cette étude, les efforts ont été concentrés sur la pyrrolnitrine, un antibiotique produit par divers ALBs, dont certains sont efficaces contre B. cinerea. Les objectifs spécifiques de l'étude étaient (i) d'évaluer la diversité de la sensibilité à la pyrrolnitrine au sein de la population naturelle de B. cinerea, (ii) d'estimer le risque de perte d'efficacité des ALBs produisant la pyrrolnitrine due à la pression de sélection exercée par la pyrrolnitrine et (iii) d'étudier le mécanisme de résistance à la pyrrolnitrine chez B. cinerea. Parmi 204 isolats de B. cinerea, une gamme importante de sensibilité à la pyrrolnitrine a été observée, avec un facteur de résistance de 8,4 entre l'isolat le plus sensible et l'isolat le moins sensible. La production de 20 générations successives pour 4 isolats de B. cinerea, sur des doses croissantes de pyrrolnitrine, a abouti au développement de mutants avec des niveaux élevés de résistance à l'antibiotique, et à une réduction in vitro de la sensibilité à la bactérie productrice de pyrrolnitrine Pseudomonas chlororaphis PhZ24. La comparaison entre les mutants résistants à la pyrrolnitrine et leurs parents sensibles pour la croissance mycélienne, la sporulation et l'agressivité sur plantes a révélé que la résistance à la pyrrolnitrine est associée à un fort coût adaptatif. Des observations cytohistologiques sur tomates ont confirmé que l'isolat sensible à la pyrrolnitrine attaque le pétiole rapidement et envahit la tige, alors que le mutant résistant à la pyrrolnitrine ne s'étend pas au-delà du pétiole. De plus, ce dernier mutant forme un mycélium anormal et des cellules ressemblant à des chlamydospores. Les résultats ont d'autre part révélé que les mutants de B. cinerea résistants à la pyrrolnitrine sont résistants au fongicide iprodione, suggérant ainsi qu'une pression exercée par la pyrrolnitrine sur le champignon conduit à une résistance au fongicide. Réciproquement, la production de générations successives sur iprodione conduit à une résistance à l'antibiotique. Afin d'étudier les déterminants moléculaires de la résistance de B. cinerea à la pyrrolnitrine, le gène histidine kinase Bos1, impliqué entre autres dans la résistance aux fongicides chez B. cinerea a été séquencé chez les souches sensibles et les mutants résistants. La comparaison des séquences a mis en évidence des mutations ponctuelles différentes chez les mutants de B. cinerea obtenus sur la pyrrolnitrine et ceux obtenus sur l'iprodione. De plus, les résistances à la pyrrolnitrine et à l'iprodione ne sont pas systématiquement associées à une mutation ponctuelle dans le gène Bos1. Enfin, aucune modification n'a été détectée dans la taille des allèles de neuf locus microsatellites quelle que soit la pression sélective exercée et quelle que soit le phénotype du mutant produit. Cette étude montre qu'un champignon pathogène des plantes est capable de développer progressivement une moindre sensibilité à un agent de lutte biologique mais que cette moindre sensibilité est associée à une forte perte de fitness
APA, Harvard, Vancouver, ISO, and other styles
5

Caillault, Cyril R. "Le risque de marché : mesures et backtesting : approche par les copules dynamiques." Cachan, Ecole normale supérieure, 2005. http://www.theses.fr/2005DENS0009.

Full text
Abstract:
Cette thèse traite de l'utilisation des fonctions copules pour mesurer le risque du marché. Chapitre 1, nous rappelons les résultats principaux relatifs aux copules: définitions,théorème de Sklar,constructions, mesures de concordance, dépendance de queue, algorithmes de simulations. Chapitre 2, nous proposons une méthode non paramétrique d'estimation fondée sur la notion de dépendance de queue. Nous la comparons à la méthode de l'omnibus". Nous montrons que le choix de la meilleure copule peut être différent selon la méthode. Les résultats nous permettent nous permettent de montrer l'existence de co mouvements entre les Tigres d'Asie. Chapitre 3, nous développons des méthodes dynamiques pour calculer la Valeur à Risque et l'Expected Shortfall. Le choix de la mesure de risque est discuté relativement à l'amendement de l'accord de Bâle. Chapitre 4, nous introduisons la notion de copule dynamique pour le calcul de la Valeur à Risque. Trois tests statistiques sont proposés afin de valider cette méthode de calcul
This thesis deals with the copulas in order to measure the market risk. Chapter 1, we recall the Most important results concerning copulas : definition, Sklar's theorem, constructions, tail dependence, concordance measures, and simulation's algorithms. In Chapter 2, we develop a non parametric estimation method based on tail dependence concept that we compare with the “Omnibus" estimator. We show that the choice of the best copula could be different according to the method. Then, our results show existence of co movements between Asian markets. Chapter 3, we develop dynamical methods to compute the Value at Risk and Expected Shortfall measures. The choice of the measure is discussed according to the Basle amendment. Chapter 4, we introduce the dynamical copula to calculate Value at Risk. Three tests are proposed in order to validate this computations method
APA, Harvard, Vancouver, ISO, and other styles
6

Blanchard, Christophe. "Estimation en continu des potentiels évoqués auditifs précoces." Paris 12, 1998. http://www.theses.fr/1998PA120007.

Full text
Abstract:
Les potentiels evoques auditifs du tronc cerebral permettent l'etude de l'activite de la voie auditive, et par le biais de ce systeme sensoriel, celle du tronc cerebral, en reponse a la stimulation sonore. Notre laboratoire a mis au point une technique qui permet l'estimation en 600 ms de ces potentiels et la visualisation d'une surface de 50 estimations successives. Cette technique a une meilleure efficacite diagnostique que celle du moyennage habituellement employe. Mon travail a permis de remplacer la surface par un deroulement continu cette fois des estimations. L'interet principal de cette nouvelle technique est de repondre aux necessites cliniques des etudes peroperatoires, du suivi des comas ou encore des etudes pharmacocinetiques. Dans ces differents domaines il est essentiel de pouvoir mettre en evidence des anomalies transitoires. Elles permettront de modifier un geste chirurgical potentiellement dangereux pour la fonction auditive, de porter un pronostic sur un etat comateux ou encore de tester un effet medicamenteux temporaire. La grande sensibilite de notre technique nous a permis notamment de remettre en cause des resultats anterieurs dans deux domaines ou elle a ete testee : l'hydrops endolymphatique et la toxicite cochleaire des antibiotiques aminosidiques.
APA, Harvard, Vancouver, ISO, and other styles
7

Roger, Muriel. "Politiques de l'emploi et transitions sur le marché du travail." Paris 1, 1999. http://www.theses.fr/1999PA010016.

Full text
Abstract:
Avec la montée du chômage, la mise en place de dispositifs d'aide à l'emploi et l'évolution du droit du travail ont modifié les parcours sur le marché du travail. L'objectif de cette thèse est d'analyser l'impact d'interventions particulières, abordées successivement, sur les transitions des actifs. L'estimation de deux modèles structurels de prospection d'emploi, dans lesquels le taux d'arrivée des offres d'emploi reçues par l'intermédiaire de l’ANPE est exogène, mais l'intensité de recherche endogène, montre qu'une augmentation du taux d'arrivée des offres via l’ANPE augmente les taux de sortie du chômage de l'ensemble des populations étudiées et essentiellement ceux des jeunes les moins diplômés et des adultes les moins qualifiés. L'étude des politiques spécifiques d'emploi permet d'aborder la question du type de sortie du chômage des populations les plus en difficulté et fait apparaitre le cas particulier du travail à temps partiel. Pour une partie des travailleurs à temps partiel, cette forme d'emploi résulte d'un choix. Pour les autres, ces emplois correspondent à une situation de travail à temps partiel subi. Pour les femmes, les différences significatives entre les actives à temps partiel choisi et à temps partiel subi montrent que ces dernières forment une catégorie à part, qu'il convient d'intégrer dans les études sur le marché du travail. Ce phénomène est pris en compte lors de l'analyse des répercutions d'une réduction du temps de travail sur les comportements de recherche d'emploi des actifs selon que celle-ci se traduit par une offre plus large d'emplois à temps partiel ou par une réduction de la durée légale du travail. La simulation des deux variantes de politiques économiques, suite à l'estimation de modèles structurels de recherche, fait apparaitre que le changement de qualité des offres d'emploi, susceptible de résulter d'une réduction du temps de travail, peut avoir des effets sur la probabilité d'être en situation d'emploi.
APA, Harvard, Vancouver, ISO, and other styles
8

Phélizon, Constance. "La création de richesse associée aux offres publiques : modélisation et estimation sur le marché français." Paris 1, 2000. http://www.theses.fr/2000PA010039.

Full text
Abstract:
Dans un contexte de développement exponentiel des marches financiers, le cours des titres exerce une discipline croissante sur les dirigeants, la baisse du rendement signalant une opportunité d'investissement au marché par le biais d'une offre publique. L'objet de cette recherche est de déterminer si ces opérations présentent une justification économique, afin d'envisager, le cas échéant, une intervention de l'état en vue de les limiter. Notre travail s'articule autour de trois axes. La première partie étudie les résultats obtenus par les travaux empiriques antérieurs, portant sur la création de valeur associée à ces opérations. Cette analyse nous permettant de souligner l'importance des motifs disciplinaire et synergétique, nous abordons, dans une deuxième partie, la modélisation micro-économique du processus d'offre publique. Nous tentons de compléter les travaux antérieurs en réhabilitant le rôle du dirigeant de la cible qui apparait primordial dans le processus d'équilibre, cet agent étant le principal responsable de la sous-valorisation boursière de l'entreprise. Dans une troisième partie enfin, nous mesurons la création de valeur associée aux offres publiques sur le marché français à travers deux études empiriques complémentaires. Notre première étude, qui utilise une mesure du gain boursier associe à l'annonce de l'opération, ne permet qu'une évaluation de la création de valeur anticipée. Notre seconde étude mesure au contraire le gain effectif à long terme. Nous établissons empiriquement que les offres publiques se traduisent ex post par une amélioration de l'efficacité productive, anticipée ex ante par les agents. Nos résultats, tant théoriques qu'empiriques, contribuent à défendre le processus d'offre publique en tant qu'outil efficace de la discipline libérale.
APA, Harvard, Vancouver, ISO, and other styles
9

Jandrzejewski, Bouriga Mathilde. "Estimation de matrices de covariance : application à la gestion de risques Marché et financiers d'EDF." Paris 9, 2012. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2012PA090010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Hamouche, Bouayad Agha Salima. "Estimation d'un modèle de déséquilibre sur le marché des biens de consommation en Algérie : 1966-1989." Paris 1, 1993. http://www.theses.fr/1993PA010010.

Full text
Abstract:
L'estimation d'un modele de desequilibre sur le marche des biens de consommation (mbc) peut etre envisage comme une contribution a la comprehension de la situation de l'economie algerienne a la veille de sa transition vers une economie de marche. Pour beaucoup d'auteurs, le mbc algerien se caracteriserait par l'existence d'une demande excedentaire permanente. Ce travail se propose d'examiner la pertinence de cette affirmation en essayant de delimiter un cadre theorique permettant de tester l'existence d'une demande excedentaire permanente. Pour cela le cadre theorique des modeles ne postulant pas au prealable le rationnement sur ce marche nous a semble le plus approprie. Il s'agit alors de tester empiriquement, l'eventualite de l'existence d'une demande excedentaire, a partir de donnees macroeconomiques, en utilisant des techniques econometriques specifiques aux situations de desequilibre. L'estimation des modeles de desequilibre (equations de demande et d'offre et condition du maximum) est usuellement fondee sur le maximum de vraisemblance, mais d'autres methodes peuvent etre envisagees lorsque les specifications retenues rendent inextricables l'ecriture de la vraisemblance. C'est le cas lorsqu'on suppose l'existence de micromarches, ce qui permet de considerer explicitement la coexistence de demande excedentaire et d'offre excedentaire. On utilise alors les methodes du pseudo-maximum de vraisemblance ou leur version simulee. Les differentes versions estimees de ce modele permettent de conforter notre intuition de depart : on ne peut vraisemblablement pas admettre que le marche des biens de consommation se caracterise obligatoirement par une demande excedentaire permanente. Ces resultats devront neanmoins etre confirmes par des travaux ulterieurs permettant d'une part, d'envisager la modelisation du marche du travail, et d'autre part de considerer le secteur parallele
The aim of this work is to study disequilibrium in the algerian consumption goods market. For that purpose, we consider works done in this fieldfor centrally planned economies in eastern europe. These economies are said to suffer from sustained, significand excess demand. If we wish to test this hypothesis, we must admit for each observation the possibility that it reflects either positve or negagtive excess aggregate demand. The appropriate model must therefore allow that either buyers or sellers may encounter quantity constraints. Estimation in this context requires the techniques for dealing with markets in disequilibrium. That provides the opportunity to review the various available estimation techniques : full information maximum likelihood ; three pseudo-maximum likelihood methods and their simulated counterparts. On the basis of our results, excess supply seems to be the most frequent case and this justifies rejecting the hypothesis of sustained excess demand in the market for consumption goods. We cannot draw strong, unambigous empirical conclusions from this work, while considering the labour market on one hand and the second economy or the other,would appear to be very great indeed
APA, Harvard, Vancouver, ISO, and other styles
11

Castaings, William. "Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnelles." Grenoble 1, 2007. http://www.theses.fr/2007GRE10154.

Full text
Abstract:
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. Météorologie, océanographie. . . ) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données)
The rainfall-runoff transformation is characterized by the complexity of the involved processes and by the limited observability of the atmospheric forcing, catchment properties and hydrological response. It is therefore essential to understand, analyse and reduce the uncertainty inherent to hydrological modelling (sensitivity and uncertainty analysis, data assimilation). Variational methods are widely used in other scientific disciplines (ex. Meteorology, oceanography) facing the same challenges. In this work, they were applied to hydrological models characterised by different modelling paradigms (reductionist vs. Systemic) and runoff generation mechanisms (infiltration-excess vs. Saturation excess). The potential and limitations of variational methods for catchment hydrology are illustrated with MARINE from the Toulouse Fluids Mechanics Institute (IMFT) and two models (event based flood model and continuous water balance model) based on TOPMODEL concepts developed at the Laboratory of Environmental Hydrology (LTHE). Forward and adjoint sensitivity analysis provide a local but extensive insight of the relation between model inputs and prognostic variables. The gradient of a performance measure (characterising the misfit with observations), calculated with the adjoint model, efficiently drives a bound-constrained quasi-newton optimization algorithm for the estimation of model parameters. The results obtained are very encouraging and plead for an extensive use of the variational approach to understand and corroborate the processes described in hydrological models but also estimate the model control variables (calibration of model parameters and state estimation using data assimilation)
APA, Harvard, Vancouver, ISO, and other styles
12

Bellier-Delienne, Annie. "Évaluation des contrats notionnels MATIF : estimation de la volatilité et de l'option de livraison." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090028.

Full text
Abstract:
La volatilité du contrat notionnel MATIF, qui exprime la sensibilité du contrat aux paramètres influant le marché financier, est estimée à partir de différents types de modèles d'évaluation d'options sur contrats à terme d'obligations. Parmi les modèles testés, le modèle de Whaley (hypothèses classiques de Black et Scholes, option de type américain) donne les meilleurs résultats. L'option de livraison correspond au droit pour le vendeur de contrat notionnel de choisir parmi les obligations du gisement celle qu'il va livrer à l'échéance. Déterminée par arbitrage, elle semble systématiquement sous-évaluée par le marché. Ce phénomène s'explique essentiellement par le fait que le marché limite le gisement à deux ou trois obligations livrables et que lorsqu'une obligation sort du gisement, elle est presque toujours la moins chère à livrer
Notional bond futures volatility, which measures the sensibility of the contract to movements in financial market, is estimated from different types of options on long bond futures evaluation models. Whaley model (with classical hypothesis of Black and Scholes model, American option) gives the best result within the different models which were tested. The quality option gives the futures seller the choice of delivery bond at the expiry date. Obtained by arbitrage, it always seems to be under evaluated by the market. It can be explained by the fact that the market limits the official bond list with two or three deliverable bonds, and when a bond goes out of the official list, the next delivery month, it's almost the cheapest to deliver
APA, Harvard, Vancouver, ISO, and other styles
13

Tapachès, Émeric. "Estimation du potentiel de la technologie solaire thermodynamique à concentration en climat non désertique - Application à La Réunion." Thesis, La Réunion, 2015. http://www.theses.fr/2015LARE0011/document.

Full text
Abstract:
Le travail de recherche présenté s'inscrit pleinement dans les préoccupations énergétiques de la Réunion, en proposant d'évaluer le potentiel de la technologie solaire thermodynamique avec ou sans système à concentration en zone tropicale et les réseaux électriques non interconnectés. Le solaire thermodynamique désigne la production d'électricité à partir du rayonnement solaire via un cycle thermodynamique. En soumettant le cycle thermodynamique à une source « froide » (eau ou air ambiant) et une source « chaude » générée par des capteurs solaires l'on obtient un travail mécanique en sortie de turbine. En couplant la turbine à un alternateur de l'électricité est produite. Utilisation de capteurs à faible ou sans concentration permettent de diminuer le seuil de rentabilité des installations solaires thermodynamiques. Dans ce cas, ce type de technologie n'est plus réservé aux climats désertiques ou méditerranéens. Une étude préliminaire montre qu'elles sont exploitables en zone tropical. De plus, le couplage de l'installation à des systèmes de stockage thermique ou à des installations d'appoint utilisant de la biomasse par exemple permet de produire une énergie électrique de façon continue. Ce projet de recherche à pour but de définir les technologies adéquates, étudier finement les microclimats locaux propices à ces technologies et de réaliser un modèle numérique pour l'étude des conditions d'opération des installations solaires thermodynamiques. Ce projet permettra d'explorer une filière énergétique d'avenir et développer une expertise locale qui contribuera au rayonnement de la Réunion dans la zone océan Indien
This thesis focuses on the study of the direct solar resource received in Reunion and numerical modeling of a solar power plant consists of: 1 / a field of linear Fresnel collectors in which circulates synthetic oil; 2 / two sensible heat storage tanks; 3 / an organic Rankine cycle. The main goal is to evaluate the performance of such power plant in the island area identified as suitable.To meet this goal, several studies have been conducted: (i) a beam solar radiation map of Reunion was made from satellite images of MeteoSat 7. This map was used to assess the availability of this resource; (ii) a new global-to-diffuse irradiance decomposition model was made from based-ground measurements at Saint-Pierre. This model is based on the representation of higher probabilities of occurrence of the diffuse fraction; (iii) the geometry of the solar collector and beam solar irradiance were modeled from an existing ray-tracing code. This code has been used, firstly, to dimension the collector using an optimization method. And secondly, to develop a fast method in order to simulate absorbed flux distribution on the linear receiver elements; (iv) unsteady-state heat transfers within the solar collector was modeled with a nodal approach; (v) annual electricity production of the power plant running in the south of the island was simulated with a monitoring and control strategy relevant for the demand of the local electricity grid.The models that have been developed during this thesis are design support tools and allow the study of control strategies control of solar power plants with linear Fresnel collector
APA, Harvard, Vancouver, ISO, and other styles
14

Alvarez, Alexander. "Modélisation de séries financières, estimation, ajustement de modèles et test d'hypothèses." Toulouse 3, 2007. http://www.theses.fr/2007TOU30018.

Full text
Abstract:
De nombreux modèles ont été proposés pour expliquer la dynamique complexe des marchés financiers. La plupart des problèmes en finance comme la valorisation d'options, la couverture d'options, l'optimisation de porte-feuille, etc. Ont été étudiés dans le cadre de ces nouveaux modèles. Mais pour les applications il est nécessaire de disposer de méthodes précises pour ajuster ces modèles aux données réelles. Dans cette thèse nous étudions plusieurs problèmes inférentiels relatifs aux modèles communément utilisés en finance. Le premier chapitre de cette thèse est une révision commentée de la majorité des méthodes existantes pour estimer les paramètres des lois stables. Entre autres, la méthode appelée de L-moments est de notre crû. Les propriétés de ces méthodes ont été testés sur des données simulées. Finalement nous présentons une application à l'estimation de la VaR (Value at Risk) sur des données financières réelles. Dans le deuxième chapitre nous étudions le problème de l'estimation d'un modèle de diffusion avec sauts observé à temps discret. Nous proposons deux méthodes différentes pour résoudre ce problème inférentiel, et nous prouvons que après une détection préalable des sauts, nous pouvons estimer les paramètres d'une diffusion avec sauts en utilisant des méthodes similaires a celles utilisées dans le cas des diffusions ordinaires. Un étude de simulation vient confirmer les résultats théoriques obtenus. Dans le troisième chapitre nous considérons le problème de la détection des sauts de la volatilité dans un modèle à volatilité stochastique. Nous proposons des estimateurs pour le nombre des sauts de la volatilité, des instants de saut et de la volatilité entre les sauts. Nous démontrons enfin un résultat asymptotique sur ces estimateurs lorsque le pas de discrétisation décroît vers 0.
APA, Harvard, Vancouver, ISO, and other styles
15

Davidson, Natalia. "The impact of spatial concentration on enterprise performance and location choice in Russia." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL12015/document.

Full text
Abstract:
Les données sur les firmes, les villes et les régions russes des années 1999-2008 sont utilisées pour analyser l’impact de l’agglomération et du potentiel de marché (PM) sur la productivité des firmes et leur choix de localisation. Le salaire, l’infrastructure de transport et le climat économique sont pris en compte. La motivation est de trouver les sources de développement des villes, dont les conditions initiales et la situation actuelle sont considérablement différentes. Les économies d’agglomération sont basées sur le partage, l’adéquation et l’apprentissage. Le Chapitre 3 montre que les économies d’urbanisation et de diversité ainsi que l’effet de PM sont positifs. Les économies de localisation ont la forme de U inversé dans la plupart des cas, mais elles sont positives pour les monovilles ; les économies d’urbanisation sont aussi importantes pour celles-ci. Le Chapitre 4 montre que les économies d’urbanisation résultant de la présence des firmes nationales et étrangères sont positives ; en même temps, les économies générées par les firmes étrangères sont plus importantes. Les économies de localisation qui proviennent des firmes nationales ont la forme de U inversé ; celles qui proviennent des firmes étrangères sont contradictoires. Le Chapitre 5 étudie le choix de localisation par les firmes parmi les villes. Les économies d’urbanisation ainsi que le PM ont l’impact positif sur un choix de localisation. Les économies de localisation gardent la forme de U inversé. Le choix de localisation par les firmes étrangères est plus influencé par l’agglomération, le PM et le climat économique que celui fait par les firmes nationales à cause des possibilités de choix plus grandes
Firm, city and regional level data for Russia, years 1999-2008, is employed to analyze the effects of agglomeration level and home market potential (HMP) on enterprise productivity and location choice. City average wages, transport infrastructure and business environment are considered. Our motivation is search for sources of economic development in the Russian cities, which differ significantly in their initial conditions and present situation. Agglomeration economies are associated with the opportunities for input sharing, matching and knowledge spillovers. In Chapter 3, urbanization and diversity economies as well as HMP are found to be positive. Localization economies have an inverted U shape for the majority of specifications, but are positive for the monotowns, showing the importance of firms’ concentration in the same industry for enterprise performance. Urbanization economies are important for the monotowns too. In Chapter 4, it is found that urbanization economies arising from presence both of national and foreign firms are positive, while those arising from the foreign firms’ presence are relatively larger. Localization economies arising from the national firms’ presence have an inverted U shape; localization effects arising from the foreign firms’ presence are contradictory. In Chapter 5, enterprise location choice for a city is estimated. Both urbanization economies and HMP positively affect location choice; localization economies keep the inverted U shape. Foreign firms’ choice for a city is more affected by agglomeration, HMP and institutional infrastructure, probably as they have greater opportunities than the national firms to choose location
APA, Harvard, Vancouver, ISO, and other styles
16

Coutant, Sophie. "Contenu en informations dans les prix d'options : estimation de la densité neutre au risque du sous-jacent et applications." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090024.

Full text
Abstract:
Cette thèse porte sur le contenu en information dans les prix d'options. Plus précisément, il s'agit dans une première partie d'estimer la densité de distribution neutre au risque du sous-jacent de l'option. Dans une seconde partie, on étudie les applications possibles de la connaissance de la densité neutre au risque, à savoir l'analyse des anticipations des participants du marché en termes d'intervalles de confiance, des tests de théorie des anticipations, l'estimation de la fonction d'aversion au risque des agents du marché
This thesis is concerned by the information content in option prices. More precisely, a first part consists in estimating the risk neutral distribution of the option underlying asset. In a second part, we study the feasible applications of the knowledge of this risk neutral density : expectations analysis of markets participants using confidence intervals, tests of expectation hypothesis, estimation of market participants risk aversion function
APA, Harvard, Vancouver, ISO, and other styles
17

Kandil, Lamia. "Disparités sexuelles sur le marché du travail égyptien 1988-2006 : approche économétrique et empirique." Paris 1, 2010. http://www.theses.fr/2010PA010057.

Full text
Abstract:
L'objectif de cette thèse est d’assurer une compréhension plus approfondie des inégalités sexuelles sur le marché du travail égyptien, tout en évitant les limites des recherches précédentes. La concentration des femmes dans un nombre limité d'emplois est souvent considérée comme étant un facteur essentiel à l’explication de l'écart salarial. Estimant que cette ségrégation constitue un aspect assez important en Egypte, on teste l'hypothèse du «crowding», selon laquelle les femmes sont exclues de certains types d'emplois ce qui résulte à une décroissance des salaires dans les emplois surreprésentés par les femmes. En se basant sur quelques évidences concernant la distribution salariale en Egypte, on a considéré que d’aller au-delà d’une mesure de la discrimination à la moyenne est exigée. En effet, on analyse l'évolution de l'écart salarial au cours du temps et le long de la distribution salariale en estimant un modèle de régression par quantile. La procédure de Machado et Mata est utilisée afin de décomposer le différentiel du salaire. Dernièrement, l'intention était de justifier nos résultats concernant les effets du plafond et du plancher de verre, et de soulever plus particulièrement les inégalités en termes d’embauches et de promotion. On propose ainsi un modèle dynamique de discrimination statistique qui tient compte du processus de recrutement et qui considère l'endoénéité d'investissement en capital humain. On teste les hypothèses de notre modèle en estimant un modèle multivarié de maximum de vraisemblance simulé. Les sources des disparités en termes d’embauche et de promotion sont identifiées selon une approche de décomposition des résidus généralisée.
APA, Harvard, Vancouver, ISO, and other styles
18

Efligenir, Anthony. "Estimation des propriétés électriques/diélectriques et des performances de séparation d'ions métalliques de membranes d'ultrafiltration et/ou de nanofiltration." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2039/document.

Full text
Abstract:
La caractérisation des propriétés électriques et diélectriques des membranes d’UF et de NF constitue une étape essentielle pour la compréhension de leurs performances de filtration. Une nouvelle approche a été développée pour déterminer les propriétés diélectriques d’une membrane de NF par spectroscopie d’impédance. Celle-ci repose sur l’isolement de la couche active du support membranaire et sur l’utilisation de mercure comme matériau conducteur, ce qui nous a permis de prouver que la constante diélectrique de la solution à l’intérieur des nanopores est inférieure à celle de la solution externe. Deux configurations de cellule (fibres immergées dans la solution d’étude ou fibres noyées dans un gel isolant) ont été étudiées pour la réalisation de mesures électrocinétiques tangentielles sur fibres creuses et la solution autour des fibres s’est avérée influencer à la fois le courant d’écoulement et la conductance électrique de la cellule. De plus, la contribution importante du corps poreux des fibres au courant d’écoulement ne permet pas de convertir cette grandeur en potentiel zêta luminal. Les propriétés intéressantes de ces membranes ont finalement été mises à profit pour décontaminer des solutions contenant des ions métalliques. Les performances de dépollution, en termes de rétention des polluants et d’impact écotoxicologique, ont été étudiées sur des solutions synthétiques et un rejet issu de l’industrie du traitement de surface. Bien que les performances de rétention aient été remarquables, la toxicité de l’effluent réel n’a pu être totalement annihilée. Une étude approfondie de la rétention des polluants non métalliques s’avère donc nécessaire
The characterization of electrical and dielectric properties of UF and NF membranes is an essential step to understand their filtration performance. A new approach has been developed to determine the dielectric properties of a NF membrane by impedance spectroscopy. This is based on the isolation of the membrane active layer and the use of mercury as conductive material, which allowed us to prove that the dielectric constant of the solution inside nanopores is lower than that of the external solution. Two cell configurations (fibers immersed in the solution or fibers embedded in an insulating gel) were investigated for the implementation of tangential electrokinetic measurements with hollow fibers and the solution around the fibers was found to influence both streaming current and cell electrical conductance. Moreover, the important contribution of the fiber porous body to the streaming current does not allow the conversion of the latter to luminal zeta potential. The advantageous properties of these membranes were finally used to decontaminate solutions containing metal ions. Decontamination performances in terms of both pollutant retention and ecotoxicological impact were studied on synthetic solutions and a discharge water from surface treatment industry. Although retention performances were remarkable, the toxicity of the real effluent could not be totally annihilated. A thorough study of the retention of non-metallic contaminants is thus required
APA, Harvard, Vancouver, ISO, and other styles
19

Cherrid, Nada. "Application des métaheuristiques à l'estimation des signaux physiologiques non stationnaires et fortement bruités." Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002521990204611&vid=upec.

Full text
Abstract:
Ce travail de thèse porte sur le problème de l'estimation des signaux physiologiques et temporellement non stationnaires. Nous étions intéressés particulièrement aux potentiels évoqués auditifs précoces (PEAPs). Ces signaux sont des réponses à des stimulations sonores. Ils reflètent l'activité du système auditif tout en permettant un diagnostic plus précoce du neurinome acoustique. Dans un premier temps, nous proposons une nouvelle approche destinée à l'estimation des signaux non stationnaires, enregistrés dans des conditions extrêmement défavorables. Cette approche est fondée sur l'utilisation de l'algorithme du recuit simulé, en association avec la technique du moyennage et sans intégration de l'information a priopri sur les signaux à estimer. Nous étudierons ensuite deux variantes de cette technique. La première utilise un modèle de forme qui offre une meilleure qualité du signal. La deuxième variante intègre une information a priori sur la dynamique des PEAPs qui s'avère efficace notamment dans le cas où les signaux ne sont pas fortement non stationnaires, on démontre ainsi que la convergence de l'algorithme d'optimisation est accélérée. Ces approches sont testées sur des sujets sains et pathologiques et testées par la suite sur des signaux du type électrocardiogramme (ECG)
This work of thesis carries on the problem of evaluating the physiological and temporally non stationary signals. We were especially interested in the brainstems Auditory Evoked Potentials (BAEPs). These signals are responses to acoustical stimulations. They reflect the activity of the auditory system while permitting a more precocious diagnosis of the acoustic neuroma. In the first step, we propose a new approach to evaluate the non stationary signals, recorded in extremely unfavourable conditions. This approach is based on the use of a stimulated annealing algorithm, in association with the technique of averaging without integration of information a priori on the signals to estimate. Then we will study two variants of this technique. The first uses a model of shape that offers a better quality of the signal. The second one integrates an information a priori on the dynamics of the BAEPs that proves to be notably efficient in the case where the signals are not greatly stationary, one demonstrates as well as the convergence of the optimisation algorithm is accelerated. These approaches are tested on healthy and pathological subjects and thereafter on a type of electrocardiogram (ECG) signals
APA, Harvard, Vancouver, ISO, and other styles
20

Bonhomme, Stéphane. "Inégalité, mobilité et hétérogénéité sur le marché du travail : Contribution Empiriques et Méthodiques." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2006. http://tel.archives-ouvertes.fr/tel-00163065.

Full text
Abstract:
Ce travail rassemble quatre essais consacrés à l'étude de l'hétérogénéité et des dynamiques individuelles sur le marché du travail. Le premier chapitre met en évidence le lien entre mobilité (inertie) et le degré de persistance des inégalités. Nous employons une méthode statistique simple et originale pour étudier les trajectoires individuelles de salaires, et l'appliquons à des données françaises couvrant la période 1990-2002. Nous trouvons que la récession du début des années 1990 a été associée à une augmentation des inégalités longitudinales.
Dans le deuxième chapitre nous étudions l'effet de la mobilité entre emplois sur les corrélations entre salaires et caractéristiques non salariales. Dans notre modèle, de fortes préférences pour ces caractéristiques ne se traduisent pas nécessairement en corrélations négatives si les frictions de mobilité sont importantes. Sur données européennes, nous estimons de fortes préférences pour certaines caractéristiques telles que le type de travail ou la sécurité de l'emploi, ainsi que des différentiels de salaires très faibles entre niveaux d'aménités.
Les chapitres 3 et 4 introduisent une méthode de modélisation de l'hétérogénéité inobservée : l'analyse en composantes indépendantes. Celle-ci diffère de l'analyse en composantes principales en ce que les facteurs ne sont pas supposés simplement non corrélés, mais statistiquement indépendants. Cette hypothèse permet d'identifier les facteurs de manière non ambigüe. Nous appliquons notre méthode à des données de salaires de l'éducation pour l'année 1995 en France. Nos résultats suggèrent une relation complexe et multidimensionnelle entre le niveau d'étude et son rendement sur le marché du travail.
APA, Harvard, Vancouver, ISO, and other styles
21

Almonord, Jean Sergo. "Haïti et la CARICOM : essais sur les limites et le potentiel de l'intégration économique." Electronic Thesis or Diss., Université de Lille (2022-....), 2024. https://pepite-depot.univ-lille.fr/ToutIDP/EDSESAM/2024/2024ULILA007.pdf.

Full text
Abstract:
Après une ample introduction sur Haïti et la CARICOM, cette thèse regroupe trois essais d'économie internationale pour éclairer les problématiques et le potentiel du pays et de la région.Le premier essai est une discussion critique de la théorie classique de David Ricardo sur l'avantage comparatif, examinant le rôle des différences de revenu sur le commerce international. En s'affranchissant de l'hypothèse restrictive généralement adoptée de « préférences homothétiques » selon laquelle les ménages consacrent une fraction constante de leur revenu à l'achat de chaque bien ou service qu'ils consomment, le rôle de la demande (et donc la distribution des revenus) pour expliquer le flux des échanges est réaffirmé. Un modèle simple démontre qu'un pays pauvre peut être exclu des échanges malgré ses avantages comparatifs, même en l'absence de barrières commerciales telles que les droits de douane ou les coûts de transport.Les pays encore dominés par l'agriculture de subsistance tendent à avoir un faible taux d'ouverture, car l'essentiel de leur production est consommé localement et les biens de consommation produits à l'étranger leur restent inaccessibles. En revanche, les pays spécialisés dans les services touristiques ont tendance à avoir un taux d'ouverture élevé, car ils exportent l'ensemble de ces services qui servent à financer l'importation d'une grande partie de leur alimentation et des biens de consommation, qui ne sont pas produits sur place. En somme, indépendamment de leur taille, le niveau d'ouverture économique des pays à bas revenus dépend largement de leur spécialisation.Une autre implication cruciale du modèle est que seuls les pays les plus riches peuvent vraiment profiter des avantages du commerce international. Le commerce apparait comme un moteur de divergence plutôt que de convergence, car il tend, dans certains cas du moins, à accentuer les inégalités entre les nations. Certains pays profitent de la croissance mondiale alors que d'autres, bien qu'étant proches géographiquement, semblent s'en éloigner irrémédiablement.Le deuxième essai souligne les vulnérabilités découlant de la spécialisation touristique de nombreux pays des Caraïbes. Bien que cette spécialisation leur ait permis de bénéficier de la croissance des pays riches, elle les expose également à tous les chocs susceptibles d'affecter ce secteur. La pandémie de Covid-19 a tragiquement révélé cette fragilité, comme en témoigne la chute du PIB clairement reliée à l'importance du tourisme dans chacun de ces pays. Les économies caribéennes ont été directement impactées par les restrictions de voyage imposées par les pays d'origine des touristes, sans avoir leur mot à dire. Ainsi, en plus de la fragilité intrinsèquement liée à la spécialisation, ces pays se sont retrouvés en grande partie privés de leur souveraineté en matière de politique économique, ce qui est particulièrement problématique quand il y a divergence d'intérêt.Le troisième essai explore une avenue potentielle pour le développement d'Haïti. Malgré les intentions affichées de la CARICOM, les échanges commerciaux au sein de la communauté restent très limités et les bénéfices attendus des accords de Chaguaramas tardent à se concrétiser. Les pays des Caraïbes présentent peu de complémentarités et pourraient n'être que des destinations touristiques concurrentes sans liens entre elles, s'ils ne bénéficiaient pas de l'effet d'appartenance à la communauté Caraïbéenne qui les rend visibles au niveau international.Nous soutenons que l'artisanat haïtien pourrait enrichir l'industrie touristique de la région. Haïti possède un avantage comparatif évident dans ce domaine en raison de sa main-d'œuvre abondante par rapport aux autres pays de la région. Il pourrait donc tirer parti des retombées de l'industrie touristique prospère de ses voisins, alors que ces derniers ont tout intérêt à favoriser un tourisme plus culturel, à la fois plus rentable et plus durable que le tourisme de masse
After an extensive introduction on Haiti and CARICOM, this thesis comprises three essays in international economics aimed at shedding light on the issues and potential of the country and the region.The first essay is a critical discussion of David Ricardo's classical theory of comparative advantage, examining the role of income disparities in international trade. By breaking free from the commonly adopted restrictive assumption of "homothetic preferences," which pos-its that households allocate a constant fraction of their income to the purchase of each good or service they consume, the significance of demand (and thus of income distribution) in explaining trade flows is reaffirmed. A simple model demonstrates that a low-income coun-try can be excluded from trade despite its comparative advantages, even in the absence of trade barriers such as tariffs or transportation costs.Countries still dominated by subsistence agriculture tend to have a low level of openness because most of their production is consumed locally, and foreign-produced consumer goods remain inaccessible to them. In contrast, countries specializing in tourism services tend to have a high level of openness because they export these services to finance the importation of much of their food and consumer goods, which are not locally produced. In summary, re-gardless of their size, the level of economic openness of low-income countries depends largely on their specialization.Another crucial implication of the model is that only the wealthiest countries can truly bene-fit from the advantages of international trade. Trade appears as a driver of divergence rather than convergence because, in some cases, it tends to exacerbate inequalities between nations. Some countries benefit from global growth while others, despite their geographical proximi-ty, seem to drift away irreversibly.The second essay underscores the vulnerabilities arising from the tourism specialization of many Caribbean countries. Although this specialization has allowed them to benefit from the growth of wealthy countries, it also exposes them to all shocks that may affect this sector. The Covid-19 pandemic tragically revealed this fragility, as evidenced by the clear decline in GDP directly related to the importance of tourism in each of these countries. Caribbean economies were directly affected by travel restrictions imposed by tourists' countries of origin, without having a say. Thus, in addition to the fragility inherently linked to specializa-tion, these countries found themselves largely deprived of their sovereignty in economic pol-icy matters, which is particularly problematic when there is a divergence of interest.The third essay explores a potential avenue for Haiti's development. Despite CARICOM's stated intentions, intra-community trade remains very limited, and the expected benefits of the Chaguaramas agreements have yet to materialize. Caribbean countries have few com-plementarities and could be nothing more than competing tourist destinations without con-nections if they did not benefit from the visibility provided by belonging to the Caribbean community at the international level. We argue that Haitian craftsmanship could enrich the region's tourism industry. Haiti has a clear comparative advantage in this field due to its abundant workforce compared to other countries in the region. It could thus benefit from the successful tourism industry of its neighbors, as these countries have every interest in promot-ing a more cultural, profitable, and sustainable form of tourism than mass tourism
APA, Harvard, Vancouver, ISO, and other styles
22

Belova, Alexandra. "Estimation of consumer demand on the air transport market." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E040/document.

Full text
Abstract:
Une des particularités du marché des compagnies aériennes est la grande divergence des prix des billets pour les mêmes vol. Cela reflète principalement l'incapacité des entreprises à modifier facilement les volumes de production et/ou à les stocker. Le développement et l'utilisation des modèles de "yield management" (modèles d'attribution des sièges) ont été centrés sur les compagnies aériennes proposant différents types de tarifs pour un même vol. L'objectif de cette thèse est de construire un certain nombre de modèles économiques pour expliquer la dispersion des prix sur le marché du transport aérien à partir de différents points de vue. Dans le chapitre 3, je crée un modèle de prix direct qui explique comment différentes caractéristiques du produit et du consommateur influencent le niveau de prix. Le chapitre 4 est consacré aux différences de niveau de prix du point de vue de la concurrence. Dans un jeu stratégique où les entreprises se font concurrence, ! 'ensemble de stratégies rationalisables pour chaque joueur implique toutes les meilleures réponses aux décisions des autres. Ce chapitre propose un test empirique de l'existence de l'équilibre de Nash unique dans un oligopole de Cournot. Dans le chapitre 5, je traite le marché des passagers aériens comme un marché différenciant les produits et applique un modèle logit multinomial pour calculer les élasticités-prix. Le modèle logit (mettant particulièrement l'accent sur l'hétérogénéité des consommateurs) estime de quelle manière les différentes caractéristiques du produit influencent les parts de marché
Nowadays one of peculiarities of the liberalized airline market is a huge divergence of ticket prices for the same flights. Mostly it reflects the companies' being unable to easily change the volumes of production or/and store them. The development and use of the yield management models (seat allocation models) have centered on airlines offering a variety of different types of fares for travel on the same flight. The goal of this dissertation is to construct a number of economic models to explain the price dispersion on the airline market from the different points of view. In Part 3, I create a direct price mode! which explains how different product and consumer characteristics influence the price level. It is shown how different attributes like the moment of ticket reservation, ticket class, weekday of the departure and number of coupons define the price and how it corresponds to the consumer characteristics (gender, income, age, etc.). Part 4 is devoted to the differences of the price level from the competition point of view. In a strategic game where firms compete against each other the set of rationalizable strategies for each player entails ail the best responses to the others' decisions. This chapter proposes an empirical test of the existence of the unique Nash equilibrium in a Cournot oligopoly. In Part 5 I treat an airline passenger market as a market with the product differentiation and apply a multinomial logit model to calculate price elasticities. The logit model (with a special focus on the consumers heterogeneity) estimates how the different product characteristics influence the market shares
APA, Harvard, Vancouver, ISO, and other styles
23

Dubreuil, François. "Recruter sur un marché interne : les justifications des décisions d'attribution d'emploi de cadre, au sein d'une entreprise française de distribution d'énergie." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23947/23947_1.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Dubreuil, François. "Recruter sur un marché interne : les justifications des décisions d'attribution d'emploi de cadre, au sein d'une entreprise française de distribution d'énergie." Thesis, Paris 10, 2006. http://www.theses.fr/2006PA100062.

Full text
Abstract:
La thèse étudie comment les managers s'appuient sur des dispositifs de gestion pour justifier leurs décisions d'attribution d'emploi au sein d'un marché interne. Trois années de présence au sein de deux monopoles énergétiques français ont permis l'observation de dispositifs de gestion, la réalisation d'entretiens formels et informels et le recueil de données statistiques. Pour analyser ces éléments et expliquer leur diversité, la thèse étudie les désaccords entre chercheurs sur la notion de compétence : certains veulent reconnaître les compétences, d'autres les gérer, les certifier ou les mettre en relation ; ils mettent alors en valeur les compétences officielle, managériale, technique ou relationnelle. La thèse repère sur cette base quatre façons d'attribuer les emplois de cadres moyens : planification de filières de progression, gestion des ressources humaines, recrutement sur le marché interne, mise en relation sur le réseau des proches. Entre 1980 et 2004, la gestion des ressources humaines remplace progressivement la planification des carrières et le marché interne perd de sa liquidité
This thesis is a study of how managers justify their staffing decisions. We spent three years at the distribution management branch of two French energy companies. We investigated the staffing tools, performed 65 formal interviews with recruiting managers, HR people and internal staff candidates and analysed data on job placement for the 6500 staff. Theoretically, we rely on the conventionalist and institutionalist approach. Studying the debates in the literature on competency, we show that while some specialists want to acknowledge competency, others want to manage it, others to certify it and others still to create networks of competencies. These specialists put emphasis on official, managerial, technical and relational competencies. Empirically, we show that there are four ways to staff positions: career path planning, recruiting on the internal market, human resources management and networking. Between 1980 and 2004, the career path planning approach is progressively replaced by the human resources management approach. The internal market looses its fluidity
APA, Harvard, Vancouver, ISO, and other styles
25

Nguyen, Quoc-Hung. "THÉORIE NON LINÉAIRE DU POTENTIEL ET ÉQUATIONS QUASILINÉAIRES AVEC DONNÉES MESURES." Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-01063365.

Full text
Abstract:
Cette thése concerne l'existence et la régularité de solutions d'équations non-linéaires elliptiques, d'équations paraboliques et d'équations de Hesse avec mesures, et les critéres de l'existence de solutions grandes d'équations elliptiques et paraboliques non-linéaires. \textbf{Liste de publications} \begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}\begin{description} \item[1.] Avec M. F. Bidaut-Véron, L. Véron; {\em Quasilinear Lane-Emden equations with absorption and measure data,} Journal des Mathématiques Pures et Appliquées,~{\bf 102}, 315-337 (2014). \item[2] Avec L. Véron; {\em Quasilinear and Hessian type equations with exponential reaction and measure data,} Archive for Rational Mechanics and Analysis, {\bf 214}, 235-267 (2014). \item[3] Avec L. Véron; {\em Wiener criteria for existence of large solutions of quasilinear elliptic equations with absorption,} 17 pages, soumis, arXiv:1308.2956. \item[4] Avec M. F. Bidaut-Véron; {\em Stability properties for quasilinear parabolic equations with measure data,} 29 pages, á apparaître dans Journal of European Mathematical Society, arXiv:1409.1518. \item[5] Avec M. F. Bidaut-Véron; {\em Evolution equations of $p$-Laplace type with absorption or source terms and measure data}, 21 pages, á apparaître dans Communications in Contemporary Mathematics, arXiv:1409.1520. \item[6] {\em Potential estimates and quasilinear parabolic equations with measure data,} 118 pages, arXiv:1405.2587v1. \item[7] Avec L. Véron; {\em Wiener criteria for existence of large solutions of nonlinear parabolic equations with absorption in a non-cylindrical domain,} 29 pages, soumis,\\ arXiv:1406.3850. \item[8] Avec M. F. Bidaut-Véron; {Pointwise estimates and existence of solutions of porous medium and $p$-Laplace evolution equations with absorption and measure data,\em } 27 pages, soumis, arXiv:1407.2218. \end{description}
APA, Harvard, Vancouver, ISO, and other styles
26

Corpetti, Thomas. "Estimation et analyse de champs denses de vitesses d'écoulements fluides." Phd thesis, Université Rennes 1, 2002. http://tel.archives-ouvertes.fr/tel-00005351.

Full text
Abstract:
Cette étude a pour cadre l'analyse de mouvements fluides dans des séquences d'images et s'articule autour de deux axes. Nous traitons en premier lieu le problème de l'estimation du mouvement. Dans un contexte d'imagerie fluide, la luminance des images fait parfois apparaître de fortes distorsions spatiales et temporelles, rendant délicate l'utilisation de techniques standard issues de la Vision par Ordinateur, originalement conçues pour des mouvements rigides et reposant sur une hypothèse d'invariance de la fonction de luminance. Nous proposons un estimateur de mouvement modélisé au moyen d'une formulation énergétique et spécialement dédié à l'estimation du mouvement fluide. La fonctionnelle considérée est composée d'un terme d'attache aux données original issu de l'équation de continuité de la mécanique des fluides. Ce nouveau modèle de données, spécifié pour être aisément intégré dans un schéma multirésolution, est associé à une régularisation de type ``div-curl''. Les performances de cet estimateur sont expérimentalement démontrées sur des images synthétiques et réelles météorologiques. Une validation de la méthode sur un écoulement expérimental représentant une ``couche de mélange'' est par ailleurs présentée. L'intérêt de l'étude est en second lieu porté sur l'analyse d'un champ de déplacement préalablement estimé, relatif à un mouvement fluide. Nous proposons une méthode visant à extraire les vortex et puits/sources de l'écoulement en s'appuyant sur le modèle de Rankine. Ce problème est essentiel dans de nombreuses applications comme par exemple la détection d'importants événements météorologiques (dépressions, cellules convectives, ...) ou la caractérisation d'écoulements expérimentaux. La connaissance de telles structures autorise par ailleurs une représentation paramétrique de l'écoulement. La méthode que nous proposons s'appuie sur une représentation analytique du champ des vitesses e permet d'extraire d'autres informations pertinentes relatives à l'écoulement (fonctions de potentiels, décomposition selon Helmholtz de l'écoulement, points singuliers, ...). L'approche présentée sera expérimentalement étudiée sur des écoulement représentant divers phénomènes physiques.
APA, Harvard, Vancouver, ISO, and other styles
27

Berdjane, Belkacem. "Consommation et investissement optimaux dans des marchés financiers à coefficients aléatoires." Rouen, 2012. http://www.theses.fr/2012ROUES029.

Full text
Abstract:
On considère le problème de consommation et d’investissement optimaux dans les marchés de Black-Scholes à coefficients aléatoires. Les paramètres du marché dépendent d’un processus de diffusion. On suppose un agent prenant des décisions basées sur la maximisation d’utilité de consommation et de richesse à l’échéance. La fonction d’utilité choisie est de type CRRA (Constant Relative Risk Aversion). L’approche dynamique du problème nous mène à la résolution de l’équation d’Hamilton-Jacobi-Bellman (HJB), qui s’avère dans notre cas une EDP fortement non-linéaire de second ordre. A l’aide de la représentation probabiliste de Feynman-Kac on démontre l’unicité et la régularité de la solution de l’équation d’HJB, et on construit par l’algorithme du point fixe, une suite convergente vers cette solution. On étudie la vitesse de convergence des suites approximantes à la fois de cette solution et du portefeuille de l’investisseur. On montre dans notre cas, que les suites convergent à vitesse plus rapide que n’importe quel raison géométrique. La vitesse de convergence est sur- géométrique. On applique nos résultats à un exemple de marchés financiers à volatilités stochastiques. On considère le même problème de consommation et d’investissement optimaux et on considère le marché de Black-Scholes à volatilité stochastique. Le taux de dérive de l’actif risqué est considéré inconnu. De plus, la volatilité est une fonction aléatoire d’un processus de type Ornstein Uhlenbeck, de drift également inconnu, qui représente le facteur économique influenant le marché. On utilise l’approche dynamique de Bellman pour résoudre le problème et donner une stratégie de consommation et d’investissement optimale, dans le cas où les paramètres sont connus. La solution et la stratégie optimale dépendent du coefficient de drift du facteur économique. Pour estimer le drift d’un processus de type Ornstein Uhlenbeck, on observe le processus dans un intervalle [0, T0] pour T0 > 0 fixé, et on utilise les méthodes séquentielles pour construire l’estimateur par une procédure de troncature. Par ailleurs, on considère le problème de consommation et d’investissement optimaux dans l’intervalle fini [T0, T] sous les paramètres estimés. On montre que la stratégie calculée à travers cette procédure séquentielle est δ-optimale
We consider an optimal investment and consumption problem for a Black-Scholes financial market with stochastic coefficients driven by a diffusion process. We assume that an agent makes consumption and investment decisions based on a constant relative risk aversion (CRRA) utility functions. The dynamical programming approach leads to an investigation of the Hamilton Jacobi Bellman (HJB) equation which is a highly non linear partial differential equation (PDE) of the second order. By using the Feynman-Kac representation we prove uniqueness and smoothness of the solution. Moreover, we study the optimal convergence rate of the iterative numerical schemes for both the value function and the optimal portfolio. We show, that in this case, the optimal convergence rate is super geometrical, i. E. Is more rapid than any geometrical one. We apply our results to a stochastic volatility financial market. We consider the same consumption and investment problem but we consider a Black-Scholes financial market with stochastic volatility and unknown stock appreciation rate. The volatility parameter is driven by an external economic factor modeled as a diffusion process, of Ornstein-Uhlenbeck type with unknown drift. We use the dynamical programming approach and find an optimal financial strategy which depends on the drift parameter. To estimate the drift coefficient we observe the economic factor Y in the interval [0, T0] with fixed T0 > 0, and use a fixed-accuracy sequential estimation. Moreover, we consider the optimal consumption and investment problem on the finite interval [T0, T] under the estimated parameter. We show that the expected absolute deviation of the objective function from the optimal one, is less than some fixed positive small parameter δ, i. E. The strategy calculated through the sequential procedure is δ-optimal
APA, Harvard, Vancouver, ISO, and other styles
28

Barry, Nene Amy. "Mesure d'impact de l'intervention gouvernementale au Canada sur le marché du poulet à griller et estimation d'une fonction de transfert entre le prix au producteur et le prix du maïs : Une application au modèle FARM." Mémoire, Université de Sherbrooke, 1987. http://hdl.handle.net/11143/8637.

Full text
Abstract:
La rapidité des progrès techniques accomplis au lendemain de la 2e guerre dans le secteur agricole du Canada a augmenté considérablement sa productivité. Cet accroissement de productivité, réalisé grâce à une augmentation importante des rendements par unité de production suite à l'adoption de nouvelles techniques de production et à des investissements importants en capital, a eu pour conséquence une augmentation de l'offre de produits agricoles plus rapide que celle de la demande. Cette tendance d'offre excédentaire de l'agriculture canadienne a maintenu les prix des aliments très abordables aux consommateurs mais insuffisants pour permettre une rentabilité acceptable des ressources utilisées dans ce secteur de l'économie. Il en résulte un appauvrissement de la population agricole, phénomène économique et social qu'il a fallu corriger. C'est dans ce sens que furent mis en place différents programmes fédéraux et provinciaux largement soutenus par les agriculteurs. Parmi ces programmes, la réglementation du marché agricole couvre différents aspects de la commercialisation des produits de la ferme et implique la création d'organismes (appelés offices de commercialisation) ayant pour rôle de faciliter l'écoulement des produits, dans certains cas de gérer l'offre par une imposition des quotas de production et même quelques fois de fixer des prix (prix du marché à la ferme ou prix minimaux). "Par contre, on craint sérieusement que la délégation de ces pouvoirs à un groupe, à savoir les producteurs, ne soit restrictive, ne conduise à une augmentation des prix, à une inefficacité de la production, à des difficultés pour les producteurs, et n'aille contre les intérêts de consommateurs."(1) Cependant on ne peut attribuer intégralement toute hausse de prix au producteur à l'établissement des plans conjoints de commercialisation. En, particulier nous pouvons anticiper qu'une hausse du prix des intrants aura un impact sur les coûts de production et les prix de vente. Dans cette recherche, nous nous proposons de mesurer l'impact de la gestion de l'offre du poulet à griller sur l'évolution du prix au producteur. A cet effet nous estimerons un modèle de fonction d'intervention au 1er trimestre 1973 pour évaluer l'impact de la mise en place des offices provinciaux et au 1er trimestre 1979 pour l'office canadien de commercialisation du poulet. De plus nous estimerons un modèle de fonction de transfert décrivant la relation entre le prix de l'extrant et celui du principal intrant de production (le maïs d'élevage). Ainsi nous présenterons au chapitre II la méthodologie utilisée pour l'analyse empirique et au chapitre III les résultats obtenus. Dans un premier temps nous analyserons au chapitre I les raisons qui ont conduit à la mise en place des offices de commercialisation au Canada. Nous présenterons l'évolution des conditions de production dans l'industrie du poulet, nous exposerons les relations théoriques entre le prix d'un intrant et celui de l'extrant et nous décrirons les objectifs et le mode de fonctionnement des offices de commercialisation du poulet à griller. (1) Geoffrey Hiscoks "Théorie et évolution de la règlementation du marché agricole au Canada" Économie agricole au Canada, Vol 7 no 2 page 22.
APA, Harvard, Vancouver, ISO, and other styles
29

Difernand, Audrey. "Etimation of potentials among young athletes." Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7163.

Full text
Abstract:
Le sport chez les jeunes individus est un aspect fondamental de leur développement physique, mental et social. Il offre l'opportunité de participer à des activités physiques, de développer des compétences motrices, de nouer des amitiés et d'acquérir des valeurs telles que la discipline, la persévérance et le fair-play. De plus, le sport contribue à promouvoir un mode de vie sain et actif dès le plus jeune âge, ce qui peut avoir des impacts positifs à long terme pour la santé. Cependant, le sport chez les jeunes comporte également son lot de défis, notamment la pression de la compétition, la spécialisation précoce et des problèmes liés à la sélection et à l'inclusion. Par conséquent, il est essentiel de comprendre les différents aspects du sport chez les jeunes, de prendre en compte les besoins individuels et les aspirations des jeunes athlètes, et de promouvoir une approche équilibrée qui encourage à la fois la performance sportive et le bien-être global des jeunes individus. Ce travail de thèse porte sur les facteurs liés à l'âge qui développent et maximisent le potentiel des jeunes athlètes tout en tenant compte de leur unicité de performance dans une même catégorie d'âge. Initialement, malgré le regroupement des athlètes par catégories d'âge pour garantir une plus grande équité, des différences de performance persistent en natation et en athlétisme pour toutes les catégories d'âge entre 10 et 16 ans, aussi bien chez les filles que chez les garçons. Cependant, il est possible de rééquilibrer les performances pour une meilleure évaluation par rapport à la catégorie d'âge de l'athlète. Néanmoins, les disparités ne se limitent pas seulement en termes de performance. Lorsque l'on considère les abandons parmi les jeunes nageurs, ils sont plus susceptibles d'être touchés par les abandons que leurs homologues relativement plus âgés. Nous examinons également l'influence du genre et de la performance sur les taux d'abandon des jeunes athlètes. Les filles ont tendance à arrêter la pratique de la natation plus tôt et plus fréquemment que les garçons, avec des taux d'abandon qui augmentent à mesure que les niveaux de performance diminuent. De plus, nous mettons en évidence le rôle de la maturation dans l'évaluation de la performance des jeunes nageurs. Ceux qui participent à plus d'épreuves et qui montrent une plus grande maturité ont tendance à surpasser leurs pairs ayant des niveaux de performance inférieurs. Enfin, nous analysons les taux de conversion des catégories juniors aux catégories seniors en natation. Il s’avère que la réussite en natation au niveau compétitif pendant la jeunesse ne garantit pas nécessairement un succès futur dans lacatégorie senior. Une meilleure prise en compte de ces facteurs contribuerait à réduire les impacts sur les taux d'abandon et de conversion, conduisant ainsi à une estimation plus précise du potentiel sportif individuel
Sports among young individuals are a fundamental aspect of their physical, mental, and social development. It provides the opportunity to engage in physical activities, cultivate motor skills, build friendships, and inquire values such as discipline, perseverance, and fair play. Moreover, sports contribute to promote a healthy and active lifestyle from an early age, which can have positive long-term implications for health. However, youth sports also come with their set of challenges, including competition pressure, early specialization, and issues related to selection and inclusion. Therefore, it is essential to understand the various aspects of youth sports, consider the individual needs and aspirations of young athletes, and promote a balanced approach that encourages both sports performance and the overall well-being of young individuals. This thesis work revolves around age factors that develop and maximize the potential of young athletes while considering their performance uniqueness in a same-age category. Initially, despite athletes being grouped by age categories to ensure greater fairness, performance differences persist in swimming and athletics for all age categories between 10 and 16 years, both in girls and boys. However, it is possible to rebalance the performances for a better evaluation in relation to the athlete's age category. Nevertheless, disparities don't only exist in terms of performance. When considering dropouts among young swimmers, they are more likely to be affected by dropouts than their relatively older counterparts. We also examine the influence of gender and performance on youth athlete dropout rates. Girls tend to exit sports programs earlier and more frequently than boys, with dropout rates rising as performance levels decline. Furthermore, we highlight the role of maturity status in evaluating youth swimmers' performance. Swimmers who participate in more events and demonstrate greater maturity tend to outperform their peers with lower performance levels. Lastly, we analyze conversion rates from junior to senior categories in swimming. Succeeding in competitive swimming during youth does not necessarily guarantee future success. A better consideration of these factors would help reduce the impacts on dropout and conversion rates, ultimately leading to a more accurate estimation of an individual's sports potential
APA, Harvard, Vancouver, ISO, and other styles
30

Bhatti, Sajjad Haider. "Estimation of the mincerian wage model addressing its specification and different econometric issues." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00780563.

Full text
Abstract:
In the present doctoral thesis, we estimated Mincer's (1974) semi logarithmic wage function for the French and Pakistani labour force data. This model is considered as a standard tool in order to estimate the relationship between earnings/wages and different contributory factors. Despite of its vide and extensive use, simple estimation of the Mincerian model is biased because of different econometric problems. The main sources of bias noted in the literature are endogeneity of schooling, measurement error, and sample selectivity. We have tackled the endogeneity and measurement error biases via instrumental variables two stage least squares approach for which we have proposed two new instrumental variables. The first instrumental variable is defined as "the average years of schooling in the family of the concerned individual" and the second instrumental variable is defined as "the average years of schooling in the country, of particular age group, of particular gender, at the particular time when an individual had joined the labour force". Schooling is found to be endogenous for the both countries. Comparing two said instruments we have selected second instrument to be more appropriate. We have applied the Heckman (1979) two-step procedure to eliminate possible sample selection bias which found to be significantly positive for the both countries which means that in the both countries, people who decided not to participate in labour force as wage worker would have earned less than participants if they had decided to work as wage earner. We have estimated a specification that tackled endogeneity and sample selectivity problems together as we found in respect to present literature relative scarcity of such studies all over the globe in general and absence of such studies for France and Pakistan, in particular. Differences in coefficients proved worth of such specification. We have also estimated model semi-parametrically, but contrary to general norm in the context of the Mincerian model, our semi-parametric estimation contained non-parametric component from first-stage schooling equation instead of non-parametric component from selection equation. For both countries, we have found parametric model to be more appropriate. We found errors to be heteroscedastic for the data from both countries and then applied adaptive estimation to control adverse effects of heteroscedasticity. Comparing simple and adaptive estimations, we prefer adaptive specification of parametric model for both countries. Finally, we have applied quantile regression on the selected model from mean regression. Quantile regression exposed that different explanatory factors influence differently in different parts of the wage distribution of the two countries. For both Pakistan and France, it would be the first study that corrected both sample selectivity and endogeneity in single specification in quantile regression framework
APA, Harvard, Vancouver, ISO, and other styles
31

Lu, Nan. "La modélisation de l'indice CAC 40 avec le modèle basé agents." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC0004/document.

Full text
Abstract:
Nous développons un modèle basé agents pour reproduire deux anomalies fréquemment observées sur les marchés financiers : distribution leptokurtique des rendements et ampleur de la volatilité irrégulière mais persistante de ces mêmes rendements. Notre but est de montrer de façon probante que ces anomalies pourraient être attribuées à une formation mimétique des anticipations des intervenants sur les marchés. Nous nous éloignons des développements récents dans le domaine des modèles modèles basés agents en finance pour proposer un modèle très simple, estimé à partir des traits statistiques saillants de l’indice français journalier CAC 40. L’hypothèse d’anticipations mimétiques peut ainsi être testée : elle n’est pas rejetée dans notre modélisation
We develop an agent-based model to replicate two frequently observed anomalies in the financial markets: the fat tails and the clustered volatility of the distribution of the returns. Our goal is to show conclusively that these anomalies could be attributed to a mimetic formation of the expectations of the stakeholders in the markets. We did not follow the rencent developpments in the field of the ACE model in the finance, but we propose a very simple model which is estimated from the stylized facts of the French daily index CAC 40. The hypothesis of mimetic anticipations can thus be tested: it is not rejected in our modeling
APA, Harvard, Vancouver, ISO, and other styles
32

Yapo, Kicho Denis. "Contribution à la modélisation des complexes fer-tannins." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/dbac2027-2999-467e-89d6-ac2cdf787526.

Full text
Abstract:
L'une des raisons de l'Insuffisance de l'absorption du fer dans l'orgamsme est la formation de complexes stables et insolubles entre le fer et les tannins (molécules végétales contenues dans les aliments). La Modélisation Moléculaire Empinque à l'aide du champ de forces SPASIBA nous a permis l'exploration de ces phénomènes de compIexation entre le fer inorgamque ou non hémmique (Fe3+, Fe2+) et le Procyanidine B2 qui est une molécule de tannin. L'étude préalable des modèles [Fe(H2O)6]3+, [Fe( cat)2(H2O)2]-1, [F e(H2O)6]2+ et [Fe( cat)2(H2O)2]-2 a permis d'établir les paramètres empiriques nécessaires à la simulation. Les dynamiques moléculaires des modèles de complexes Procyanidine B2-Fe2+/3+ et Procyanidine B2- Fe2+/3+-Procyanidine B2 ont montré des comportements spécifiques de ceux-ci dans les diftérents milieux d'étude. L'objectif du travail étant la simulation des mécamsmes de formation de complexes de fer non héminique avec les tannins condensés via la molécule de Procyanidme B2 dans l'organisme humain, l'étude de modèles en milieu biologique simulé à l'aide d 'un diélectrique continu a montré des similitudes et des diffèrences quant aux mécanismes de complexation du fer ferrique (fe3+ ) et du fer ferreux (fe2+) avec celle-ci. Entre autres solutions visant à optImiser la biodisponibilité du fer non héminique et de la molécule de Procyanidine B2, nous suggérons la synthèse de composés issus du métabolisme de dimétylation de celle-ci qui seraient capables d'empêcher la complexation avec le fer inorganique et d'être assimilés par l'organisme.
APA, Harvard, Vancouver, ISO, and other styles
33

Boukrami, Othmane. "Les effets de la diversification sur le risque de change non couvert par les marchés financiers : estimation de la rentabilité du portefeuille dans un système d'informatio optimal." Thesis, Lyon 3, 2011. http://www.theses.fr/2011LYO30024.

Full text
Abstract:
Dans les conditions actuelles du marché, les entreprises dans les pays émergeants ont le choix entre une dette à court terme en monnaie locale et un financement à long terme en devise forte provenant de sources internationales pour financer leurs investissements à long terme. Ceci crée un gap de taux ou de change. Cette thèse se situe dans la continuité des travaux de recherche qui ont déjà étudié la question de la diversification des risques de change dans les marchés financiers matures. A la différence des approches existantes, cette recherche se concentre sur les monnaies des pays émergeants pour lesquels il n’existe pas ou peu d’instruments de couverture du risque de change et de taux. Le modèle proposé repose sur une conception fondamentalement différente des modèles de risque existants, cherchant à atténuer les risques internes grâce à la diversification du portefeuille, plutôt que par l’adéquation entre l'offre et la demande. Ceci en étudiant à la fois les corrélations entre les monnaies des pays des marchés émergeants constituées dans un portefeuille composé de monnaies des pays africains, asiatiques, sud-américains et d’Europe de l’Est ainsi que l’effet de la diversification sur la réduction du risque de marché. Le choix des monnaies n’a pas une incidence significative sur les résultats du moment que les limites régionales proposées sont respectées. L’objectif principal de cette thèse est de contribuer à la spécification et à l’identification d’un modèle de diversification des risques tout en démontrant que la constitution d’un portefeuille diversifié et non couvert des produits dérivés de change sur les monnaies des marchés émergents est une activité lucrative à long terme. En s’appuyant sur un Système d’Information performant, le model proposé tente de démontrer l’effet qu’auraient de tels produits de couverture sur la réduction du risque de crédit de l’emprunteur et par conséquent celui des bailleurs de fonds. Afin d’atteindre cet objectif, les différents risques liés à ces activités ont été définis tout en choisissant les méthodes pour une gestion efficace de ces risques ainsi que la modélisation d’expositions hypothétiques créées par cette activité. L’impact de la réduction de l’exposition au risque de marché par l’usage des produits de couverture du risque de change et de taux, sur le risque de crédit des entreprises dans les pays émergeants a aussi été modélisé. Les résultats de la simulation proposée montrent qu’une gestion optimale des risques de changes et de taux générés, à travers l’offre de couvertures sur les monnaies des pays émergeants, peut être une activité lucrative pour les banques car l’atténuation des risques peut se faire en diversifiant efficacement le portefeuille
In current market conditions, companies in emerging markets have the choice between a short-term debt in local currency and a long-term hard currency financing from international sources to finance their long-term investments. This practice would create either an interest rate gap or a currency gap. As an extent of previous researches and studies covering the question of currency risks diversification in mature financial markets, this thesis is quite distinctive from the existing literature as it focuses on emerging market currencies for which there are little or no hedging options of currency and interest rate risks. The proposed model is based on a fundamentally different approach from existing risk models, seeking to mitigate risks internally through portfolio diversification, rather than by matching supply and demand. This, by analyzing both correlations between emerging market currencies in a portfolio composed of African, Asian, South American and Eastern Europe currencies and the effect of diversification on market risk reduction. The main objective of this thesis is to contribute to the specification and the identification of a risk diversification model while demonstrating that the establishment of a diversified portfolio of emerging market currencies not covered by the commercial banks is a lucrative business over the long-term. With an efficient information system, the proposed model attempts to demonstrate the effect that such hedging products would have on reducing the credit risk of borrowers and hence the lenders. To achieve this aim, the different risks associated with these activities have been identified while choosing the methods for their effective management as well as the modeling of hypothetical exposures created by this activity. The impact of reducing market risk exposure through the usage of interest rate and currency hedging products on the credit risk rating of companies in emerging countries has also been modeled. The current research claims that the choice of currencies does not significantly impact the results as long as the proposed regional limits are respected. The simulation’ results show that managing a diversified currency portfolio under an optimal risk management guidelines can be a lucrative business for banks as the risk mitigation can be effectively done through portfolio diversification
APA, Harvard, Vancouver, ISO, and other styles
34

Devulder, Antoine. "Involuntary unemployment and financial frictions in estimated DSGE models." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E016/document.

Full text
Abstract:
L’utilisation de modèles DSGE, construits à partir de comportements micro-fondés des agents économiques, s'est progressivement imposée aux institutions pour l'analyse macroéconomique du cycle d'affaires et l'évaluation de politiques, grâce à leur cohérence interne. La crise financière récente et la préoccupation que représente la persistance du chômage à un niveau élevé plaident en faveur de modèles qui tiennent compte des ajustements imparfaits de l'offre et de la demande sur les marchés du crédit et du travail. Pourtant, des modèles relativement rudimentaires dans leur représentation de ces marchés, comme celui de Smets et Wouters (2003-2007), reproduisent aussi bien les données que des modèles économétriques usuels. On peut donc légitimement s'interroger sur l'intérêt de prendre en compte ces frictions dans la spécification des modèles théoriques destinés à l'analyse économique opérationnelle. Dans cette thèse, je réponds à cette question en montrant que l'inclusion de mécanismes microfondés, spécifiques aux marchés du crédit et du travail peut modifier très significativement les conclusions obtenues à partir d'un modèle DSGE estimé, tant d'un point de vue positif que normatif. Pour cela, je construis un modèle à deux pays de la France et du reste de la zone euro, avec un reste du monde exogène, et l'estime avec et sans ces deux frictions, en utilisant une approche hayésienne. Par rapport aux modèles existant dans la littérature, je propose deux améliorations à la spécification du marché du travail. Premièrement, suivant Pissarides (2009), le salaire réel moyen est rendu rigide en supposant que seuls les nouveaux employés renégocient leur rémunération. Deuxièmement, le taux de participation sur le marché du travail est rendu endogène et le chômage involontaire, dans le sens où le bien-être des chômeurs est inférieur à celui des employés. L'inclusion de ce dernier mécanisme dans le modèle estimé fera cependant I'objet de travaux futurs.Afin de mettre en évidence les effets des frictions sur les marches du crédit et du travail, je soumets les quatre versions estimées du modèle à plusieurs exercices: une analyse en contributions des chocs structurels pendant la crise. L'évaluation de différentes règles de politique monétaire, la simulation contrefactuelle de la crise sous l'hypothèse d'un régime de change flexible entre la France et le reste de la zone euro et, enfin. la simulation de variante de TVA sociale
Thanks to their internal consistency. DSGE models, built on microecoc behavor, have become prevalenl for business cycle and policy analysis in institutions. The recent crisis and governments' concern about persistent unemployment advocate for mechanism, capturing imperfect adjustments in credit and labor markets. However, popular models such as the one of Smets and Wouters (2003-2007), although unsophisticated in their representation of these markets, are able to replicate the data as well as usual econometric tools. It is thus necessary to question the benefits of including these frictions in theoretical models for operational use.ln this thesis, I address this issue and show that microfounded mechanisms specifiç to labor and credit markets can significantly alter the conclusions based on the use of an estimated DSGE model, fom both a positive and a normative perspective.For this purpose, I build a two-country model of France and the rest of the euro area with exogenous rest of the world variables, and estimate it with and without these two frictions using Bayesian techniques. By contrast with existing models, I propose two improvements of the representation of labor markets. First, following Pissarides (2009), only wages in new jobs are negotiated by firms and workers, engendering stickiness in the average real wage. Second, I develop a set of assumptions to make labor market participation endogenous and unemployment involuntary in the sense that the unemployed workers are worse-off that the employed ones. Yet, including this setup in the estimated model is left for future research.Using the four estimated versions of the model, I undertake a number of analyses to highlight the role of financial and labor market frictions : an historical shock decomposition of fluctuations during the crisis, the evaluation of several monetary policy rules, a counterfactual simulation of the crisis under the assumption of a flexible exchange rate regime between France and the rest of the euro area and, lastly, the simulation of social VAT scenarios
APA, Harvard, Vancouver, ISO, and other styles
35

Charron, Jacques-Olivier. "La relation entre estimation de la valeur fondamentale des sociétés cotées et évolution de leur cours : une contribution basée sur des études de cas." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2010. http://tel.archives-ouvertes.fr/tel-00646347.

Full text
Abstract:
L'efficience fondamentale, i.e. l'efficience comprise comme conformité de la valorisation par les marchés financiers à la valeur fondamentale des titres est en tant que telle peu testée. Notre recherche vise à renouveler ses modes de test en se basant sur une conception constructiviste de la valeur fondamentale. Ce renouvellement, axé sur l'adoption d'un point de vue d'investi, est mis en oeuvre sur 4 cas de sociétés cotées françaises sur une période de 3 ans. La première partie de la thèse est consacrée à l'identification des acteurs les plus légitimés de ce type d'expression publique. Elle montre que ce sont les analystes financiers sell-side. La deuxième partie étudie la relation entre l'estimation publique de la valeur fondamentale par ces acteurs et l'évolution des cours. Elle aboutit au constat d'une estimation fortement dépendante de la dynamique du marché. La troisième partie apporte des éléments d'explication de ce constat en présentant sous la forme d'une configuration le mode d'interdépendance dans lequel s'inscrivent à la fois les analystes, les investisseurs et d'autres acteurs.
APA, Harvard, Vancouver, ISO, and other styles
36

Doisy, Anne. "Analyse de la migration et de la déformation cellulaires : application à l'étude du rôle de la protéine CD9/MRP1 dans le carcinome colorectal." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10229.

Full text
Abstract:
Le processus metastatique reste une des causes majeures de l'echec des traitements anticancereux. Les differentes etapes impliquees dans la formation de metastases font intervenir la migration cellulaire. De nombreuses etudes s'interessent a la correlation pouvant exister entre l'invasion tumorale et la migration cellulaire. Nous avons utilise une methode de quantification basee sur une approche de flot optique qui permet d'estimer le mouvement a partir de sequences d'images en contraste de phase sans segmentation prealable. Nous avons valide la pertinence de cette approche sur des images de synthese puis dans differents contextes biologiques : au niveau individuel ou nous avons observe l'existence d'une periodicite dans la deformation spontanee de cellules et au niveau de la population ou nous avons pu quantifier la dynamique de l'ensemble de la couche cellulaire lors du processus de recolonisation apres blessure in vitro, en presence ou non d'un marqueur de l'adn le hchst 3342. Cette approche a ete appliquee a un systeme experimental constitue de cellules issues d'un carcinome colorectal et de cellules issues de metastase peritoneale, provenant d'un meme patient. Nous avons etudie la migration de ces cellules en relation avec l'expression de la proteine cd9/mrp1. Il s'agit d'une proteine transmembranaire qui a ete decrite comme etant associee au potentiel metastatique de certaines tumeurs. Dans notre cas, cette proteine est plus fortement exprimee dans les cellules issues de la tumeur primaire et a une contribution positive dans la migration cellulaire.
APA, Harvard, Vancouver, ISO, and other styles
37

Vu, Dinh Toan. "Unification du système de hauteur et estimation de la structure lithosphérique sous le Vietnam utilisant la modélisation du champ de gravité et du quasigéoïde à haute résolution." Thesis, Toulouse 3, 2021. http://www.theses.fr/2021TOU30050.

Full text
Abstract:
Le but de ce travail était double. La première partie a été consacrée à la recherche de la taille et de la forme de la Terre au Vietnam à travers la détermination d'un modèle quasigeoïde gravimétrique local. La deuxième partie consistait à étudier la structure intérieure de la Terre sous le Vietnam en déterminant la profondeur du Moho et de la limite entre Lithosphère-Asthénosphère. Pour le premier objectif, un modèle quasigeoïde gravimétrique à haute résolution pour le Vietnam et ses environs a été déterminé sur la base de nouvelles données issues de campagnes gravimétriques terrestres en combinaison avec des observations satellites dans les régions non couvertes par les observations au sol. Le modèle quasigeoïde a été évalué en utilisant 812 points GNSS/nivellement dans la région d'étude. Cette comparaison indique que le modèle quasigeoïde a un écart type de 9.7 cm et un biais moyen de 50 cm. Ce nouveau modèle quasigeoïde local pour le Vietnam représente une amélioration significative par rapport aux modèles globaux EIGEN-6C4 et EGM2008, qui ont des écarts-types de 19.2 et 29.1 cm, respectivement, par rapport aux données GNSS/nivellement. Une application sociétale et technique essentielle du quasigeoïde gravimétrique est le nivellement par GNSS, et un modèle de décalage vertical pour le Vietnam et ses environs a donc été déterminé sur la base des points GNSS/nivellement et du modèle quasigeoïde gravimétrique. Le modèle de décalage (ou modèle de correction) a été évalué en comparant avec des données GNSS/nivellement. Les résultats indiquent que le modèle obtenu a un écart type de 5.9 cm au sens absolu. Grâce à ce modèle de décalage, le nivellement par GNSS peut donc être effectué dans la plupart du territoire vietnamien conformément aux exigences de nivellement du troisième ordre, tandis que les exigences de précision pour les réseaux de nivellement du quatrième ordre sont satisfaites pour tout le pays. Pour tenter d'unifier le système de hauteur ainsi déterminé vers l'IHRF (International Height Reference System), la valeur géopotentielle à zéro-hauteur pour le système de référence vertical local du Vietnam W_0^LVD a été déterminée en fonction de deux approches: 1) Utilisation de données GNSS/nivellement de haute qualité et du modèle quasigeoïde gravimétrique. 2) Utilisation de l'approche du problème de la valeur aux limites géodésiques basée sur le modèle de champ de gravité global GOCE amélioré avec des données de gravité terrestres. Cette valeur géopotentielle est utilisée pour rattacher le système de hauteur du Vietnam avec les pays voisins. De plus, l'approche du problème de la valeur des limites géodésiques a également été utilisée pour la détermination du potentiel de gravité à la surface de trois stations GNSS-CORS à l'époque 2018.0 au Vietnam. Sur la base de séries chronologiques de composantes verticales dérivées des observations GNSS ainsi que des données InSAR, les variations temporelles du géopotentiel ont également été estimées sur ces stations GNSS permanentes. Cela permet de surveiller la référence verticale et de détecter d'éventuelles déformations. Ces stations peuvent ainsi contribuer à augmenter la densité des points de référence dans l'IHRF pour cette région. Pour le deuxième objectif, le modèle de quasigéoïde local a d'abord été converti en géoïde. Ensuite, des modèles de profondeur du Moho et de la limite entre Lithosphère-Asthénosphère à haute résolution ont été déterminés sous le Vietnam sur la base de l'hypothèse isostatique locale en utilisant la hauteur du géoïde dérivée du géoïde, des données de hauteur et d'analyse thermique. [...]
The goal of this work was twofold. The first part was devoted to the research of the size and physical shape of the Earth in Vietnam through the determination of a local gravimetric quasigeoid model. The second part was to better constrain the Earth's interior structure beneath Vietnam by determining the Moho and Lithosphere-Asthenosphere Boundary (LAB) depth models. For the first objective, a high-resolution gravimetric quasigeoid model for Vietnam and its surrounding areas was determined based on new land gravity data in combination with fill-in data where no gravity data existed. The resulting quasigeoid model was evaluated using 812 GNSS/levelling points in the study region. This comparison indicates that the quasigeoid model has a standard deviation of 9.7 cm and 50 cm in mean bias. This new local quasigeoid model for Vietnam represents a significant improvement over the global models EIGEN-6C4 and EGM2008, which have standard deviations of 19.2 and 29.1 cm, respectively, when compared to the GNSS/levelling data. An essential societal and engineering application of the gravimetric quasigeoid is in GNSS levelling, and a vertical offset model for Vietnam and its surrounding areas was determined based on the GNSS/levelling points and gravimetric-only quasigeoid model for this purpose. The offset model was evaluated using cross-validation technique by comparing with GNSS/levelling data. Results indicate that the offset model has a standard deviation of 5.9 cm in the absolute sense. Thanks to this offset model, GNSS levelling can be carried out over most of Vietnam's territory complying to third-order levelling requirements, while the accuracy requirements for fourth-order levelling networks is met for the entire country. To unify the height system towards the International Height Reference Frame (IHRF), the zero-height geopotential value for the Vietnam Local Vertical Datum W_0^LVD was determined based on two approaches: 1) Using high-quality GNSS/levelling data and the estimated gravimetric quasigeoid model, 2) Using the Geodetic Boundary Value Problem (GBVP) approach based on the GOCE global gravity field model enhanced with terrestrial gravity data. This geopotential value can be used to connect the height system of Vietnam with the neighboring countries. Moreover, the GBVP approach was also used for direct determination of the gravity potential on the surface at three GNSS Continuously Operating Reference Station (CORS) stations at epoch 2018.0 in Vietnam. Based on time series of the vertical component derived from these GNSS observations as well as InSAR data, temporal variations in the geopotential were also estimated on these permanent GNSS stations. This enables monitoring of the vertical datum and detect possible deformation. These stations may thus contribute to increase the density of reference points in the IHRF for this region. For the second objective, the local quasigeoid model was first converted to the geoid. Then, high-resolution Moho and LAB depth models were determined beneath Vietnam based on the local isostatic hypothesis using the geoid height derived from the estimated geoid, elevation data and thermal analysis. From new land gravity data, a complete grid and map of gravity anomalies i.e., Free-air, Bouguer and Isostatic was determined for the whole of Vietnam. The Moho depth was also computed based on the gravity inversion using the Bouguer gravity anomaly grid. All new models are computed at 1' resolution. The resulting Moho and LAB depth models were evaluated using available seismic data as well as global and local lithospheric models available in the study region. [...]
APA, Harvard, Vancouver, ISO, and other styles
38

La, Rota Camilo. "Analyse de l'activité électrique multi-sites auditif chez le cobaye." Phd thesis, Grenoble 1, 2003. http://www.theses.fr/2003GRE19001.

Full text
Abstract:
"La problématique qui a motivé cette étude est celle de la représentation et du traitement de l'information dans le néocortex. On s'intéresse en particulier à l'hypothèse selon laquelle l'information sensorielle est représentée par un " code " spatio-temporel dans l'activité coopérative des populations neuronales. Cette étude est fondamentale pour le développement de solutions technologiques à certains problèmes médicaux (e. G. Neuroprothèses). La disponibilité de nouvelles techniques de mesure multi-sites qui permettent d'observer l'activité spatio-temporelle du cortex à des résolutions suffisantes, nous donne l'occasion d'aborder la notion " d'interaction neuronale " à des échelles mésoscopiques et d'étudier les mécanismes de la sensation et de la perception au niveau des aires fonctionnelles. Nous nous sommes intéressés à l'activité électrique du cortex auditif en réponse aux stimuli sonores, observée in vivo chez le cobaye à l'aide de colorants fluorescents potentiel-dépendants. Nous avons étudié des méthodes pour le traitement, l'analyse et la compression/intégration de l'information spatio-temporelle, adaptées à ce type de données. Une analyse descriptive nous a permis de caractériser les signaux recueillis, ainsi que leur variabilité et les erreurs qui nuisent à la mesure. Une étude théorique est venue compléter cette description et a permis d'interpréter nos données par rapport à l'activité neuronale sous-jacente. Le signal de fluorescence est difficile à traiter avec des techniques classiques de traitement du signal, nous avons donc utilisé des techniques basées sur la transformée en ondelettes afin d'estimer et de caractériser l'activité d'origine neuronale. Finalement, nous avons analysé quelques approches pour la modélisation spatio-temporelle de l'activité du cortex, et nous avons étudié l'adéquation de ces modèles à nos données. Des éléments de méthode pour l'étude de cette problématique et des perspectives pour les expériences futures sont avancés. "
The scientific problem that has motivated this study is the representation and processing of information in the neocortex. We are interested in particular in the hypothesis that states that information is coded on the neural populations' cooperative activities. This study is essential to find technological solutions to some medical problems, such as the development of neuroprosthesis. The existence of new multisite measuring techniques that allow the in vivo observation of the spatiotemporal activity of the cortex at high resolutions, give us the possibility to study the concept of "neural interaction" at mesoscopic scales and to study the mechanisms of senses and perception at the level of functional areas. We have studied in particular the electrical activity of the guinea pig's auditory cortex in response to stimuli using voltage-dependent dyes (optical imaging). We have studied some techniques for the processing and analysis of the spatiotemporal information represented by this data. By means of a descriptive analysis we have characterized the signals, their variability and the measuring errors. A theoretical study complemented this description, and allowed us to interpret our data in function of the underlying neural activity. Optical signals are difficult to process with traditional signal processing techniques, we have used wavelet-based techniques to estimate and characterize the neural activity components of the signal. Finally, we have evaluated some approaches to the spatiotemporal modeling of the cortical activity, and we have studied the pertinence of these models to describe our data. Some perspectives on this problem and on the design of future experiences are given
APA, Harvard, Vancouver, ISO, and other styles
39

Al, Wakil Anmar. "Modélisation de la Volatilité Implicite, Primes de Risque d’Assurance, et Stratégies d’Arbitrage de Volatilité." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED047/document.

Full text
Abstract:
Les stratégies de volatilité ont connu un rapide essor suite à la crise financière de 2008. Or, les récentes performances catastrophiques de ces instruments indiciels ont remis en question leurs contributions en couverture de portefeuille. Mes travaux de thèse visent à repenser, réinventer la philosophie des stratégies de volatilité. Au travers d'une analyse empirique préliminaire reposant sur la théorie de l'utilité espérée, le chapitre 1 dresse le diagnostic des stratégies traditionnelles de volatilité basées sur la couverture de long-terme par la réplication passive de la volatilité implicite. Il montre que, bien que ce type de couverture bat la couverture traditionnelle, elle s'avère inappropriée pour des investisseurs peu averses au risque.Le chapitre 2 ouvre la voie à une nouvelle génération de stratégies de volatilité, actives, optionnelles et basées sur l'investissement factoriel. En effet, notre décomposition analytique et empirique du smile de volatilité implicite en primes de risque implicites, distinctes et investissables permet de monétiser de manière active le portage de risques d'ordres supérieurs. Ces primes de risques mesurent l'écart de valorisation entre les distributions neutres au risque et les distributions physiques.Enfin, le chapitre 3 compare notre approche investissement factoriel avec les stratégies de volatilité employées par les hedge funds. Notre essai montre que nos stratégies de primes de risque d'assurance sont des déterminants importants dans la performance des hedge funds, tant en analyse temporelle que cross-sectionnelle. Ainsi, nous mettons en évidence dans quelle mesure l'alpha provient en réalité de la vente de stratégies d'assurance contre le risque extrême
Volatility strategies have flourished since the Great Financial Crisis in 2008. Nevertheless, the recent catastrophic performance of such exchange-traded products has put into question their contributions for portfolio hedging and diversification. My thesis work aims to rethink and reinvent the philosophy of volatility strategies.From a preliminary empirical study based on the expected utility theory, Chapter 1 makes a diagnostic of traditional volatility strategies, based on buy-and-hold investments and passive replication of implied volatility. It exhibits that, although such portfolio hedging significantly outperforms traditional hedging, it appears strongly inappropriate for risk-loving investors.Chapter 2 paves the way for a new generation of volatility strategies, active, option-based and factor-based investing. Indeed, our both analytical and empirical decomposition of implied volatility smiles into a combination of implied risk premia, distinct and tradeable, enables to harvest actively the compensation for bearing higher-order risks. These insurance risk premia measure the pricing discrepanciesbetween the risk-neutral and the physical probability distributions.Finally, Chapter 3 compares our factor-based investing approach to the strategies usually employed in the hedge fund universe. Our essay clearly evidences that our tail risk premia strategies are incremental determinants in the hedge fund performance, in both the time-series and the cross-section of returns. Hence, we exhibit to what extent hedge fund alpha actually arises from selling crash insurance strategies against tail risks
APA, Harvard, Vancouver, ISO, and other styles
40

Kabui, Ali. "Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00743159.

Full text
Abstract:
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
APA, Harvard, Vancouver, ISO, and other styles
41

Mo, Zhexun. "A Few Essays on the Political Economy of Inequalities in Africa and China." Electronic Thesis or Diss., Paris, EHESS, 2024. http://www.theses.fr/2024EHES0057.

Full text
Abstract:
Cette thèse de doctorat s’inscrit dans mes intérêts de recherche générale à l’intersection de l’économie du développement, de l’économie politique et de l’histoire économique. Plus précisément, mon programme de recherche se concentre autour de deux axes principaux. D’une part, en numérisant des ensembles de données historiques à grande échelle, j’explore les vicissitudes à long terme des inégalités sous des formes multidimensionnelles en Afrique et en Asie de l’Est, en particulier leurs déterminants historiques (via l’avènement et la fin du colonialisme, la montée et la chute de différents régimes politiques, etc.) et leurs interactions à long terme avec le développement contemporain et les résultats de la croissance. D’autre part, j’adopte une perspective plus micro en concevant des expériences d’enquête transnationales pour comprendre comment les gens perçoivent subjectivement les inégalités et forment leurs préférences en matière de redistribution, en particulier dans les pays en développement où la forte présence d’institutions traditionnelles et des trajectoires de croissance uniques peuvent avoir façonné la vision des citoyens sur l’inégalité et le développement de manière différente, les idées tirées pouvant également éclairer les politiques pour un développement plus durable à long terme. Dans cette thèse de doctorat, je tente de répondre à ces questions en me concentrant sur les dimensions de recherche susmentionnées en quatre chapitres traversant les territoires de l’Afrique de l’Ouest et de l’Asie de l’Est. Dans le premier chapitre, j’examine les déterminants historiques de la conception des institutions coloniales françaises en Afrique de l’Ouest, En particulier, je me concentre sur l’un des épisodes de travail forcé les plus draconiens intégrés dans le système de conscription de l’époque, spécifiquement au Mali colonial où les réservistes militaires étaient exploités pour les travaux publics et la construction de chemins de fer. J’estime les répercussions à long terme du travail forcé colonial en collectant manuellement un énorme ensemble de données historiques sur les soldats coloniaux au Mali avec mes collègues qui recherchent sur le développement au Mali contemporain. Dans mes deuxième et troisième chapitres, je m’éloigne du colonialisme en Afrique de l’Ouest et me plonge dans l’étude des perceptions des inégalités et de la formation des préférences redistributives dans la Chine contemporaine. À travers deux expériences d’enquête consécutives avec mes co-auteurs,nous constatons que les attitudes des citoyens chinois envers les inégalités et les préférences pour la redistribution diffèrent significativement des idéaux occidentaux, et nous tentons de rationaliser cet ensemble unique de préférences avec l’expérience économique transitoire de la Chine et la faible agence politique de la population. Dans mon dernier chapitre, je retourne dans l’histoire de la Chine au 20e siècle et, avec mes coauteurs, nous estimons l’évolution à long terme de l’accumulation de la richesse nationale chinoise depuis la fondation de la République de Chine (1911) jusqu’en 2020. Nous trouvons des modèlestrès frappants en ce qui concerne la dynamique de l’accumulation de la richesse d’un pays ayant subi des trajectoires politiques et de développement drastiques au cours du siècle dernier, ce qui ouvre la voie à plus de dialogues pour comprendre la relation complexe entre inégalité et croissance en Chine et dans le monde en développement en général à l’avenir
This Ph.D. dissertation speaks to my general research interests at the intersections of development economics, political economy and economic history. Specifically, my research agenda centers around two main axes. On the one hand, by digitizing large-scale historical datasets, I explore the long-term vicissitudes of inequalities in multi-dimensional forms in both Africa and East Asia, in particular their historical determinants (via the advent and end of colonialism, the rise and fall of different political regimes, etc) and their long-run interactions with contemporary development and growth outcomes. On the other hand, I zoom in from a more micro perspective, by designing cross-country survey experiments, in order to understand how people subjectively perceive inequalities and form preferences for redistribution, especially in developing countries where the strong presence of traditional institutions and unique growth trajectories could have shaped citizens to view inequality and development in alternative manners and the insights from which could also inform policy-making for more sustainable development in the longer run. In this Ph.D. thesis, I attempt to answer these questions centering around the aforementioned research dimensions in four chapters, traversing the territories of West Africa and East Asia. In the first chapter, I examine the historical determinants over the design of French colonial institutions in West Africa. In particular, I zoom in on one of the most draconian forced labor episodes embedded in the conscription system at the time, specifically in colonial Mali where military reservists were exploited for public works and railway construction, and estimate the long-term developmental repercussions of colonial forced labor by hand-collecting an enormous historical dataset on colonial soldiers in Mali together with my colleagues researching on development in contemporary Mali. In my second and third chapters, I depart away from colonialism in West Africa, and dive into investigating inequality perceptions and the formation of redistributive preferences in contemporary China. Via two consecutive survey experiments with my co-authors, we find that Chinese citizens’ attitudes towards inequalities and preferences for redistribution differ significantly from the western ideals,and we attempt to rationalize this unique set of preferences with China’s transitional economic experience and low political agency of the population. In my final chapter, I go back into the history of China in the 20th century, and together with my co-authors, we estimate the long-run evolution of Chinese national wealth accumulation from the founding of the Republic of China (1911) till 2020. We find very striking patterns with regards to the dynamics of wealth accumulation of a country having undergone drastic political and development trajectories over the past century, which paves the way for more dialogues on understanding the intricate relationship between inequality and growth in China and the developing world at large in the future
APA, Harvard, Vancouver, ISO, and other styles
42

Faye, Papa Latyr. "Le potentiel d'offres de vols à bas prix au Québec." Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9413/1/eprint9413.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Castaings, William. "Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnelles." Phd thesis, 2007. http://tel.archives-ouvertes.fr/tel-00264807.

Full text
Abstract:
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. météorologie, océanographie ...) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données).
APA, Harvard, Vancouver, ISO, and other styles
44

Nadeau, Simon. "Estimation de la ressource granulaire et du potentiel aquifère des eskers de l'Abitibi-Témiscamingue et du sud de la Baie-James (Québec)." Mémoire, 2011. http://www.archipel.uqam.ca/4020/1/M12079.pdf.

Full text
Abstract:
Les eskers de l'Abitibi-Témiscamingue sont des complexes fluvioglaciaires généralement mis en place dans un environnement sous-aquatique lors de la déglaciation. La submersion glaciolacustre Barlow-Ojibway, qui a suivi le retrait du front glaciaire, a favorisé l'accumulation de sédiments à grains fins dans les zones profondes recouvrant les irrégularités du terrain. Cette couverture de sédiments a affecté le volume apparent des dépôts granulaires en enfouissant partiellement ou complètement les flancs d'eskers. En plus d'être d'un intérêt en matériaux granulaires, les eskers de l'Abitibi-Témiscamingue sont des sources d'approvisionnement en eau potable pour plusieurs municipalités. Ce sont les sédiments à grains fins, peu perméables, sur les flancs qui favorisent la formation de réservoirs aquifères. La présence d'eau de haute qualité entre souvent en conflit avec certaines activités humaines. Pour éviter l'émergence de conflit d'usage et favoriser la protection de la ressource, un mode de gestion adapté à cette réalité est nécessaire. Pour y parvenir, ce mémoire dresse un portrait quantitatif de la réserve en dépôts granulaires de l'Abitibi-Témiscamigue et le sud de la Baie-James en plus d'évaluer le potentiel aquifère de l'ensemble des segments d'eskers. À l'aide de la modélisation de la topographie des eskers, le volume de dépôts granulaires apparent a été estimé à 10 610 millions de m*3 pour l'ensemble de l'Abitibi-Témiscamingue. De ce volume, près du tiers (3 105 millions de m*3) se concentre sur le territoire de la MRC de la Vallée-de-l'Or : 2503 millions de m3 dans le sud de la Baie-James, 1 950 millions de m*3 dans la MRC d'Abitibi, 1 630 millions de m*3 dans la MRC de Témiscamingue, 1 279 millions de m3 dans la Ville de Rouyn-Noranda et 143 millions de m*3 dans la MRC d'AbitibiOuest. La disparité dans les volumes mesurés est liée à la taille des territoires couverts, aux milieux de mise en place des eskers et à l'épaisseur des dépôts glaciolacustres qui les recouvrent. La modélisation des altitudes maximales de la submersion glaciolacustre et la présence ou l'absence des dépôts glaciolacustres ont permis de connaître l'environnement de sédimentation des eskers. Quatre milieux de mise en place ont pu être identifiés pour les segments d'esker de la région, soit: celui au-dessus du niveau maximal de la submersion (type A représentant 10 % de tous les eskers), celui de la zone sublittoral supérieure à l'altitude de la plaine argileuse (type B représentant 31 % de tous les eskers), celui de la zone profonde où les eskers sont partiellement enfouis par les sédiments à grains fins (type C représentant 58 % de tous les eskers) et celui de la zone profonde où les eskers sont complètement recouverts par les sédiments à grains fins (type D représentant 1 % de tous les eskers). Ces milieux de mise en place jumelés à la présence ou à l'absence de résurgence d'eau ponctuelle ou diffuse el à la présence d'affleurement de till ou de roc à proximité des segments permettent d'évaluer le potentiel aquifère des eskers. Quatre niveaux de potentiel aquifère ont été attribués aux segments d'eskers de la région selon ces caractéristiques; 4 signifie le meilleur potentiel et 1, le moins bon. Selon ce classement, 39 % des eskers sont de niveau 4, 32 % des eskers sont de niveau 3, 26 % des segments sont de niveau 2 et 3 % des segments sont de niveau 1. La répartition spatiale des eskers selon ce classement montre un accroissement progressif du potentiel aquifère de ces derniers vers le nord-ouest de la région : les eskers de niveau 1 se retrouvent en plus forte dominance au Témiscamingue; ceux de niveau 2 sont majoritairement localisés au sud de Val-d'Or et dans les hautes terres à l'est de Lebel-sur-Quévillon; ceux de niveau 3 se répartissent sur l'ensemble du territoire, mais avec une présence plus marquée au nord de Val-d'Or et les eskers de niveau 4 sont principalement localisés au nord d'Amos. L'acquisition, à l'échelle régionale, du volume minimal de la réserve de dépôts granulaires et du potentiel aquifère des segments d'esker fourni une base de connaissance pour cibler des segments nécessitant des études plus détaillées. En ce sens, les segments d'eskers ayant le meilleur potentiel (le niveau 3 et 4) devront être mieux définis quant à la taille des aquifères, leur recharge et leur vulnérabilité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : eskers, dépôts granulaires, potentiel aquifère, cartographie, submersion glaciolacustre
APA, Harvard, Vancouver, ISO, and other styles
45

Doan, Thi Lien Huong. "L'estimation du coût du capital dans les marchés émergents : une application au secteur alimentaire du Vietnam." Mémoire, 2006. http://www.archipel.uqam.ca/2994/1/M9422.pdf.

Full text
Abstract:
Dans un contexte de marchés développés tels ceux du Canada ou des États-Unis, le modèle d'équilibre des actifs financiers (CAPM) est le plus utilisé par les praticiens pour estimer le coût du capital et ce, même s'il comporte de nombreuses faiblesses aux plans théorique et pratique. L'application de ce modèle ne semble toutefois pas adéquate dans le contexte des pays émergents en raison des caractéristiques propres de ces marchés (leur forte volatilité, leur inefficience, leur segmentation etc.). L'objectif de ce travail est d'essayer d'estimer le coût du capital du secteur alimentaire de l'économie du Vietnam en appliquant des modèles plus efficaces adaptés au contexte des marchés émergents. Pour estimer le coût du capital du secteur alimentaire, nous avons appliqué le modèle de marché exprimant la relation entre le rendement du portefeuille sectoriel et celui du marché. Dans ce modèle inspiré du CAPM, nous supposons une relation linéaire entre le rendement du portefeuille et celui du marché. Ce modèle est également appliqué au marché du Japon et de l'Australie. Nos résultats nous permettent de confirmer une très forte relation dans les trois cas. L'étude de ces marchés nous permet aussi de constater que le secteur alimentaire du Vietnam semble plus risqué que celui des autres marchés. Nous y avons également trouvé la présence de l'effet ARCH des rendements, qui implique que la variance du rendement de ce secteur au Vietnam n'est pas constante, mais varie avec les informations non anticipées des périodes précédentes. Nous avons également examiné la relation entre le rendement de portefeuilles alimentaires sur trois marchés, le Vietnam, l'Australie et le Japon. Nous avons choisi l'Australie et le Japon à cause de l'importance des rapports commerciaux entre ces pays et le Vietnam. Si une relation avait existé, la maturité de ces deux marchés aurait pu nous aider à déterminer un «benchmark» pour estimer le coût du capital. Malheureusement, nos résultats ne nous ont pas permis de confirmer cette hypothèse. Nous avons eu recours au modèle CAPM hybride ajusté, celui de Damodaran, de Godfrey-Espinosa et de Erb-Harvey-Viskanta, pour fournir des références de ce paramètre de coût du capital. Les paramètres de ces modèles ont été déjà estimés par les auteurs. Cette application nous donne une intervalle d'estimation pour le coût de capital qui varie de 9.29 % à 16.84 % pour le secteur alimentaire au Vietnam. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Coût du capital, Marchés émergents, Vietnam, Secteur alimentaire.
APA, Harvard, Vancouver, ISO, and other styles
46

Bruneau, Gabriel. "Trois essais en macroéconomie." Thèse, 2015. http://hdl.handle.net/1866/13582.

Full text
Abstract:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Economic fluctuations represent the movements of economic growth. It may experience acceleration phases (expansion) or deceleration (recession), and even depression if the decline in production is persistent. Economic fluctuations are related to differences between actual growth and potential growth. They can be explained by supply and demand shocks, as well as by the credit cycle. In the first case, the conditions of production are modified. This is the case when the price of production factors (wages, raw materials prices) or external factors influencing the price of products (exchange rate) evolve. Thus, an increase in the price of production factors causes a negative shock and slows growth. This slowdown may also be due to a negative demand shock caused by an increase in product prices caused by a currency appreciation, causing a decrease in exports. The second case concerns the financial variables and financial assets. Thus, in a period of expansion, economic agents borrow more and have speculative behaviors in response to anticipated supply and demand shocks. The value of securities and financial assets increases, causing a bubble that eventually burst, causing a collapse in the value of assets. Therefore, economic activity cannot be funded. This is what generates a recession, sometimes profound, as in the recent financial crisis. This thesis includes three essays on macroeconomic fluctuations and economic cycles, specifically on the topics described above. The first chapter deals with expectations about monetary policy and on the reaction of econonomic agents on these expectations. A particular emphasis is placed on the consumption of durable goods and indebtedness related to this type of consumption. The second chapter discusses the influence of fluctuations in foreign exchange rates on labour demand in the Canadian manufacturing sector. Finally, the third chapter focuses on spillover, sometimes negative, of the real estate market on household consumption and the impact on property prices and household debt of demand expectations in the property market. The first chapter, entitled ``Monetary Policy News Shocks and Durable Consumption'', provides insight on the link between durable goods spending and monetary policy news shocks. We propose and implement a new approach to identifying news shocks about future monetary policy. News shocks are identified recursively from the residuals of a monetary policy rule estimated using U.S. multi-horizon survey data. We then use those inferred news shocks in a structural VAR (SVAR). An expected monetary policy tightening leads to an increase in output, non-durable and durable goods consumption, and real price of durable goods. Although news shocks account for a significant fraction of output and consumption fluctuations, they contribute less than surprise shocks to economic fluctuations. We then carry out theoretical analysis using a dynamic stochastic general equilibrium (DSGE) model with durable goods and nominal rigidities. Results indicate that a model with sticky durable goods price can reproduce the positive correlation between the response functions of durable and non-durable goods consumption to policy news shocks that was found from the SVAR. The second chapter is entitled ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. In this chapter, we estimate the impact of exchange rate fluctuations on hours worked and jobs in Canadian manufacturing industries. The analysis is based on a dynamic model of labour demand and the econometric strategy employs a panel two-step approach for cointegrating regressions. Our data is drawn from a panel of 20 manufacturing industries, from Statistics Canada's KLEMS database, and covers a long sample period that includes two full exchange rate appreciation and depreciation cycles. We find that exchange rate fluctuations have economically and statistically significant effects on the labour decisions of Canadian manufacturing employers, and that these effects are stronger for trade-oriented industries. Finally, the last chapter, entitled ``Housing Market Dynamics and Macroprudential Policy'', studies the statistical evidence suggesting a collateral link between the housing market and the rest of the economy and if the link is more demand- or supply-driven. We also followed the \textit{news shocks} literature and look if a housing-market boom-bust can arise endogenously following unrealized expectations of a rise in housing demand. To this end, we construct a New Keynesian model in which a fraction of households borrow against the value of their houses. We estimate the model with Canadian data using Bayesian methods. We assessed the model's ability to capture key features of consumption and house price data. Finally, we performed an analysis to determine how well the introduction of a countercyclical loan-to-value (LTV) ratio can reduced household indebtedness and housing price fluctuations compare to a monetary policy rule augmented with house price inflation. We find statistical evidence suggesting an important collateral link between the housing market and the rest of the economy, and this link is mainly driven by demand factors. We also find that the introduction of news shocks can generate a housing market boom-bust cycle, the bust following unrealized expectations on housing demand. Finally, our study also suggests that a countercyclical loan-to-value ratio is a useful policy to reduce the spillover from housing market to consumption via the collateral value.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography