To see the other types of publications on this topic, follow the link: Prix Nobel de sciences économiques.

Journal articles on the topic 'Prix Nobel de sciences économiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 35 journal articles for your research on the topic 'Prix Nobel de sciences économiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Dagum, Camilo. "Prix Nobel de sciences économiques 1988." Canadian Journal of Development Studies / Revue canadienne d'études du développement 10, no. 2 (1989): 171–76. http://dx.doi.org/10.1080/02255189.1989.9669364.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Gossé, Jean-Baptiste, and Cyriac Guillaumin. "L’apport de la représentation VAR de Christopher A. Sims à la science économique." L'Actualité économique 89, no. 4 (2014): 305–19. http://dx.doi.org/10.7202/1026446ar.

Full text
Abstract:
L’Académie royale des sciences de Suède a attribué le prix 2011 de la Banque de Suède en sciences économiques institué en mémoire d’Alfred Nobel à Thomas Sargent et Christopher Sims « pour leurs recherches empiriques sur la cause et l’effet en macroéconomie ». Cet article se propose de présenter les travaux pour lesquels Sims a été primé. Face aux insuffisances des modèles macroéconométriques d’inspiration keynésienne, Sims (1980) émet la fameusecritique de Simset propose une modélisation multivariée qui va profondément influencer la science économique. Après avoir retracé les principaux apports de cette approche, nous proposons un panorama des nombreuses recherches suscitées par les travaux pionniers de Sims.
APA, Harvard, Vancouver, ISO, and other styles
3

De Bandt, Jacques, Jacques Ravix, Paul-Marie Romani, and André Torre. "Ronald H. Coase, prix nobel 1991 de Sciences économiques, ou de l'autre côté du « tableau noir »." Revue d’économie industrielle 58, no. 1 (1991): 7–14. http://dx.doi.org/10.3406/rei.1991.1386.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lagueux, Maurice. "L'économique: branche des mathématiques ou branche de l'histoire?" Dialogue 34, no. 3 (1995): 495–520. http://dx.doi.org/10.1017/s0012217300009082.

Full text
Abstract:
Aux yeux de ceux, de plus en plus nombreux, qui cherchent à en analyser le statut épistémologique, la science économique pose un problème assez unique et même assez paradoxal. De l'avis de plusieurs, cette discipline est la plus avancée des sciences sociales; c'est d'ailleurs la seule que l'on a jugée digne de voir ses plus illustres représentants couronnés par le prestigieux prix Nobel. Pourtant, elle est probablement celle dont les résultats sont le plus systématiquement dénigrés ou réduits à peu de choses, souvent par ses représentants les plus éminents qui se livrent ainsi épisodiquement à une sorte d'autoflagellation comme on en voit rarement dans le monde académique. On pourrait présenter le problème autrement en faisant valoir que, plus que toute autre science sociale, l'économique tend à se modeler sur la physique et que, pour ce faire, les économistes n'hésitent pas à mettre l'accent sur le rôle capital des prédictions en sciences. Or, pourtant, peu de sciences voient leurs prédictions aussi constamment démenties par les faits, au point où ses adeptes n'estiment même plus qu'il est de leur devoir d'en excuser l'insuccès.
APA, Harvard, Vancouver, ISO, and other styles
5

Gingras, Yves, and Lionel Vécrin. "Les prix Ig-Nobel." Actes de la recherche en sciences sociales 141-142, no. 1 (2002): 66. http://dx.doi.org/10.3917/arss.141.0066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gingras, Yves, and Lionel Vécrin. "Les prix Ig-Nobel." Actes de la recherche en sciences sociales 141, no. 1 (2002): 66–71. http://dx.doi.org/10.3406/arss.2002.2820.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

de Charentenay, Pierre. "L'Europe, une œuvre de volonté." Études Tome 418, no. 1 (2013): 7–17. http://dx.doi.org/10.3917/etu.4181.0007.

Full text
Abstract:
Résumé L’Europe est une œuvre de la volonté et de la décision, une œuvre de la foi dans les capacités de l’homme à chercher et à construire la paix. C’est parce qu’elle a réussi ce pari qu’elle a reçu le Prix Nobel de la paix 2012. Pourtant avec le point de fixation de la crise, les débats sur l’Europe n’ont jamais été aussi intenses, non seulement sur les questions économiques et financières mais aussi sur les questions politiques.
APA, Harvard, Vancouver, ISO, and other styles
8

François, KAPUNGA MWARABU, and WITANNE MWANZO Pascal. "LA LIBERALISATION DES PRIX ET PROTECTION DE CONSOMMATEUR EN DROIT CONGOLAIS." IJRDO - Journal of Social Science and Humanities Research 7, no. 6 (2022): 1–10. http://dx.doi.org/10.53555/sshr.v7i6.5136.

Full text
Abstract:
L’activité économique joue un rôle capital dans la vie des hommes en sciences étant donné qu’elle touche presque à chaque pas leur vie.
 En effet, cette activité parvient à poser les problèmes de façon à permettre à ce que se coordonnent les projets économiques des hommes car la vie en société implique et suppose l’interdépendance économique des individus et de leurs actions. Et les échanges des biens et services passent nécessairement par l’activité économique qu’exercent les acteurs de ce domaine à savoir les commerçants ou les opérateurs économiques.
 Cependant, il faut une saine règlementation de l’activité économique dans la société, cela permettra de manière préventive d’éviter tout dérapage de la part des opérateurs économiques dans la fixation par exemple des prix des biens (produits) et services.
 Le prix qui se définit comme étant une somme d’argent due par l’acquéreur d’un bien au vendeur ou comme tout dû en échange d’un service est, selon le régime social ou politique en vigueur au sein d’un Etat donné, soit autoritaire, soit libéral. Autrement dit, la fixation de celui-ci est l’œuvre de l’autorité publique, soit encore l’ouvre des opérateurs économiques à travers une politique de fixation libérale des prix.
APA, Harvard, Vancouver, ISO, and other styles
9

Boufoy-Bastick, Béatrice. "RESTRUCTURER LA POLITIQUE LINGUISTIQUE DE L’UE ET DÉFENDRE LA DIVERSITÉ DU PATRIMOINE LINGUISTIQUE EUROPÉEN : PRÉVENIR LA TRAGÉDIE DES COMMUNS." Verbum 7, no. 7 (2016): 44. http://dx.doi.org/10.15388/verb.2016.7.10257.

Full text
Abstract:
Cet article explique comment la politique linguistique de l’UE en servant les exigences économiques des apprenants en langue contribue à la rapide éradication des langues minoritaires européennes. Il reconnait ce problème comme un exemple classique de la « Tragédie des biens communs » de Hardin (1968) dans laquelle l’intérêt personnel détruit le bien commun. Une solution différente a été présen­tée à la tragédie des biens communs par Elinor Ostrom et Oliver Williamson, lauréats du Prix Nobel en économie en 2009 émergeant des huit principes de gestion durable des biens communs proposés par Ostrom en1990. Cet article applique ces huit principes à la tragédie du bien commun linguistique de l’UE et suggère une restructuration de sa politique linguistique visant la dotation en ressources durables pour sauvegarder les biens communs irremplaçables que constituent les patrimoines linguis­tiques européens.
APA, Harvard, Vancouver, ISO, and other styles
10

Boufoy-Bastick, Béatrice. "RESTRUCTURER LA POLITIQUE LINGUISTIQUE DE L’UE ET DÉFENDRE LA DIVERSITÉ DU PATRIMOINE LINGUISTIQUE EUROPÉEN : PRÉVENIR LA TRAGÉDIE DES COMMUNS." Verbum 7, no. 7 (2016): 44. http://dx.doi.org/10.15388/verb.2016.7.10285.

Full text
Abstract:
Cet article explique comment la politique linguistique de l’UE en servant les exigences économiques des apprenants en langue contribue à la rapide éradication des langues minoritaires européennes. Il reconnait ce problème comme un exemple classique de la « Tragédie des biens communs » de Hardin (1968) dans laquelle l’intérêt personnel détruit le bien commun. Une solution différente a été présen­tée à la tragédie des biens communs par Elinor Ostrom et Oliver Williamson, lauréats du Prix Nobel en économie en 2009 émergeant des huit principes de gestion durable des biens communs proposés par Ostrom en1990. Cet article applique ces huit principes à la tragédie du bien commun linguistique de l’UE et suggère une restructuration de sa politique linguistique visant la dotation en ressources durables pour sauvegarder les biens communs irremplaçables que constituent les patrimoines linguis­tiques européens.
APA, Harvard, Vancouver, ISO, and other styles
11

Horowitz, Elliott. "Visages du judaïsme: de la barbe en monde juif et de l'élaboration de ses significations." Annales. Histoire, Sciences Sociales 49, no. 5 (1994): 1065–90. http://dx.doi.org/10.3406/ahess.1994.279312.

Full text
Abstract:
Au cours de l'été 1925, Schmuel Yosef Agnon, écrivain hébreu originaire de Galicie (et futur lauréat du prix Nobel de littérature) âgé alors de trentesept ans, revenait progressivement au mode de vie traditionnel dans lequel il avait été élevé. Écrivant de Jérusalem à sa femme, demeurée provisoirement en Allemagne, il lui fit part d'un incident survenu la veille et qui avait, par conséquent, conservé toute sa fraîcheur dans sa mémoire.
APA, Harvard, Vancouver, ISO, and other styles
12

H., Jacques. "Sur la macroéconomie de l'incertitude et des marchés incomplets." Revue de l'OFCE 72, no. 1 (2000): 7–37. http://dx.doi.org/10.3917/reof.p2000.72n1.0007.

Full text
Abstract:
Résumé Ce texte est la version écrite du discours présidentiel au douzième congrès mondial de l'Association internationale des sciences économiques, résumant les travaux récents de l'auteur et ses sujets d'intérêt de manière semi-formelle. Incertitude et marchés incomplets génèrent une volatilité de la demande ainsi que des rigidités de salaires et de prix. La conjonction de ces deux aspects conduit à des équilibres avec excès d'offre, multiples et volatils, reflétant typiquement des insuffisances de coordination, et susceptibles de persister — comme le confirment trois théorèmes. En conclusion, il apparaît d'une part que nous ne pouvons ignorer les problèmes de coordination; nous devons d'autre part essayer de remédier à la volatilité de la demande et de contourner les rigidités de prix et de salaires, par des mesures spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
13

Kolm, Serge-Christophe. "La cause de la crise." Annales. Histoire, Sciences Sociales 40, no. 3 (1985): 563–77. http://dx.doi.org/10.3406/ahess.1985.283184.

Full text
Abstract:
Mondialement, la cause première de la crise économique ouverte en 1974 (chômage profond, stagnation des revenus et productions) réside dans les politiques de déflation menées par les gouvernements dans le but d'abaisser l'inflation (hausse des prix). Et la cause première de l'inflation réside dans les politiques de reflation des gouvernements pour abaisser le chômage et retrouver la croissance. Il en résulte que trois choses sont primordiales.1) Les relations entre l'activité économique et l'inflation.2) Les politiques macro-économiques des gouvernements.3) la dynamique et ses enchaînements.Les relations activité-inflation sont le trait structurel crucial de l'économie du secteur privé, quant à la cause de la crise.Les politiques macro-économiques des gouvernements sont leur souci d'influencer l'activité et l'emploi, et par là aussi l'inflation et les soldes des échanges extérieurs, par le budget public et l'offre de monnaie. Elles réagissent à la situation globale qu'elles visent à influencer, pour l'améliorer notamment pour des raisons politiques. Par là, l'État et la politique sont endogènes au système économique.
APA, Harvard, Vancouver, ISO, and other styles
14

Mongili, Alessandro. "La science russe : un système archaïque mais productif." Annales. Histoire, Sciences Sociales 50, no. 3 (1995): 541–62. http://dx.doi.org/10.3406/ahess.1995.279383.

Full text
Abstract:
Devant la science soviétique et russe, une question a souvent été posée : comment un système aussi mal organisé peut-il produire des résultats aussi importants ? Cette interrogation souligne les préjugés de la mentalité occidentale. Seule une science organisée à l'occidentale pourrait produire de bons résultats ; ceux-ci, pour leur part, doivent être quantitativement appréciables, autrement dit mesurables en termes de publications, de découvertes, de brevets ou, à la limite, en des indices aussi tautologiques que le nombre de prix Nobel.
APA, Harvard, Vancouver, ISO, and other styles
15

Lebrun, Philippe, and Hubert Schaff. "De la métrologie à la métallurgie de précision Charles-Édouard Guillaume, prix Nobel de physique 1920." Reflets de la physique, no. 73 (July 2022): 28–31. http://dx.doi.org/10.1051/refdp/202273028.

Full text
Abstract:
Dans un précédent numéro de Reflets de la physique, un article de J.E. Wesfreid (n°65, pp. 30-33) décrivait les recherches aérodynamiques de Gustave Eiffel. Suite à cet article, avec Hubert Schaaf (ancien président de la SF2M), j’ai interrogé les lecteurs sur le nom du lauréat Nobel qui a effectué la mesure de la hauteur de la Tour. La riche et unique réponse à la question que j’avais posée a été donnée par Philippe Lebrun, physicien des accélérateurs du CERN. Ces deux chercheurs (qui ne se connaissaient pas auparavant) nous présentent, dans une rubrique d’histoire des sciences, l’ensemble des activités de recherche appliquée du métallurgiste Charles-Édouard Guillaume (prix Nobel de physique 1920), insuffisamment reconnu aujourd’hui. Le centième anniversaire de la mort d’Eiffel en 2023 fournira d’autres occasions d’aborder la métallurgie. Étienne Guyon
APA, Harvard, Vancouver, ISO, and other styles
16

Fontanella, Jean-Claude, Pascal Jagourel, Pierre Kern, Pierre Lena, and Gérard Rousset. "Première mondiale de l’optique adaptative en astronomie en 1989." Photoniques, no. 111 (November 2021): 33–36. http://dx.doi.org/10.1051/photon/202111133.

Full text
Abstract:
La première démonstration mondiale du potentiel de l’optique adaptative pour l’astronomie a été effectuée en 1989. Ces travaux ont démontré qu’il était possible de compenser les effets de la turbulence atmosphérique et d’atteindre la limite de diffraction des grands télescopes, au moins dans le proche infrarouge. Couplée éventuellement à l’utilisation d’étoiles artificielles créées par laser, cette technologie est devenue une composante incontournable de tous les grands télescopes optiques terrestres. Les observations ayant conduit au Prix Nobel de Physique 2020 ont reposé sur les premiers développements de l’imagerie des tavelures, puis rapidement sur ceux de l’optique adaptative et de son application à l’interférométrie multi-télescopes.
APA, Harvard, Vancouver, ISO, and other styles
17

Barré-Sinoussi, Françoise, Fleur Beauvieux, and Clément Tarantini. "Du sida au Covid-19 : pour une recherche au bénéfice des patients." Mouvements 114, no. 2 (2023): 182–94. http://dx.doi.org/10.3917/mouv.114.0182.

Full text
Abstract:
Françoise Barré-Sinoussi est virologue, professeur de classe exceptionnelle à l’Institut Pasteur et directrice de recherche Inserm de classe exceptionnelle. En 2008, elle est co-lauréate du prix Nobel de médecine (avec Luc Montagnier) pour la découverte du virus du sida en 1983. Elle est présidente de l’association Sidaction depuis 2017. Elle est également présidente d’honneur de l’Institut Covid-19 Ad Memoriam créé au début de la pandémie de Covid-19, en 2020. Elle fut présidente du Comité analyse, recherche et expertise (CARE) créé le 24 mars 2020 par le gouvernement français afin de le conseiller dans la lutte contre la pandémie. Elle est enfin présidente d’honneur du Pasteur Network, membre depuis 2009 de l’Académie nationale des Sciences et, depuis 2018, de la National Academy of Medicine (USA).
APA, Harvard, Vancouver, ISO, and other styles
18

Facchini, François. "Pour une politique d’assainissement de la dette publique par la baisse de la dépense publique." Revue française d'économie Vol. XXXVIII, no. 2 (2023): 115–61. http://dx.doi.org/10.3917/rfe.232.0115.

Full text
Abstract:
Cet article se place dans une tradition des sciences économiques finalement peu présente en France dans les débats autour de la dette, à savoir la nouvelle économie politique. Il soutient que le gouvernement devrait dégager des excédents budgétaires grâce à une baisse des dépenses publiques pour stimuler la croissance économique et donner ainsi aux acteurs des marges de manœuvre pour s’adapter aux conséquences du dérèglement climatique. Il rappelle, en introduction, l’actualité des débats et explique pourquoi la question posée par la dette publique porte plus sur les bienfaits des dépenses publiques que sur les déficits. Une dette publique n’est pas productive en elle-même. Elle est productive si elle finance des dépenses productives. L’existence d’une courbe de BARS pour la France à hauteur probablement d’un ratio dépenses publiques sur PIB de 30 % et l’échec relatif des conférences internationales pour le climat, conduisent à soutenir une politique d’austérité expansive, antikeynésienne et de vérité des prix sur l’énergie et le marché foncier afin de gérer un problème complexe, le climat, par un système complexe, le prix. Ne pas réduire la dette publique serait, pour ces raisons, réduire la capacité de résilience de l’économie française face aux chocs à venir (climatiques, démographiques, sanitaires et/ou militaires). Privatiser les entreprises publiques et certains services publics et baisser les coûts de production des services publics seraient, au contraire, un moyen de l’accroître et de préserver l’intérêt des générations futures.
APA, Harvard, Vancouver, ISO, and other styles
19

Mysterud, Iver. "Niko Tinbergen's life and work: a new approach to biology." Social Science Information 46, no. 3 (2007): 543–53. http://dx.doi.org/10.1177/0539018407079729.

Full text
Abstract:
English The life and work of the eminent ethologist and Nobel laureate Nikolaas Tinbergen (1907—1988) played an essential role in the introduction of a new approach that is transforming the scientific understanding of animal behaviour, human nature and evolution. This article focuses on an extremely well-written biography of him, Niko's Nature, by Hans Kruuk, one of Tinbergen's former students. Niko's Nature is more than a biography: it is a presentation and an evaluation of the main lines of European ethology and behaviour research in the 20th century up to the 1980s. Tinbergen suffered from depression most of his adult life, and if he had been a child today, he probably would have been diagnosed as hyperactive (ADHD). Tinbergen fits into a pattern of lifelong fatty-acid deficiency. I also discuss other possible causes of his problems (like protein intolerance, vitamin deficiency, genetics and novel environmental factors) and speculate how Tinbergen would have approached such issues if he were alive today. French La vie et l’oeuvre de Nikolaas Tinbergen (1907–1988), éthologue éminent et Prix Nobel, ont été essentielles pour l’apparition d’une approche nouvelle dans la compréhension scientifique du comportement animal, de la nature humaine et de l’évolution. Ce texte commente une biographie de Tinbergen écrite par l’un de ses anciens étudiants Hans Kruuk, Niko’s Nature. Niko’s Nature est plus qu’une simple biographie, il s’agit en fait d’une présentation et d’une évaluation des principaux courants de l’éthologie et de la recherche comportementale en Europe au 20ème siècle, jusqu’aux années 1980. Durant toute sa vie d’adulte, Tinbergen a souffert de dépression et s’il avait été enfant de nos jours, il aurait probablement été diagnostiqué comme enfant hyperactif (THADA). Tinbergen semble correspondre à un schéma de déficience durable en acides gras. L’auteur évoque aussi d’autres pistes explicatives (comme l’intolérance aux protéines, la déficience en vitamines, la génétique, l’apparition de nouveaux facteurs environnementaux) et s’interroge sur la façon dont Tinbergen aurait approché l’étude de ces questions s’il était encore vivant.
APA, Harvard, Vancouver, ISO, and other styles
20

Waquil, Paulo D., Marcio Z. Neske, Claudio M. Ribeiro, et al. "Vulnérabilité des éleveurs familiaux à la frontière entre Livramento et Rivera au Brésil et en Uruguay : analyse comparative." Revue d’élevage et de médecine vétérinaire des pays tropicaux 68, no. 2-3 (2016): 55. http://dx.doi.org/10.19182/remvt.20588.

Full text
Abstract:
Le groupe social appelé les éleveurs familiaux a suscité l’intérêt des sciences sociales, économiques et environnementales. La principale caractéristique de ce groupe, présent dans le biome Pampa au sud du Brésil et en Uruguay, est la production basée sur le travail familial sur de petites parcelles, exprimant un mode de vie autonome, très dépendant toutefois de fortes relations avec le milieu naturel et marqué par l’aversion au risque. L’objectif de cet article a été de faire une analyse comparative des facteurs de vulnérabilité des éleveurs familiaux du sud du Brésil et d’Uruguay, ainsi que des perceptions de ces acteurs sociaux sur les risques et les stratégies mises en place pour atténuer les menaces. Une enquête a été menée dans le but de répondre à ces questions, à partir d’interviews de seize éleveurs familiaux, huit dans chaque pays, dans les villes de Santana do Livramento (Brésil) et Rivera (Uruguay). Le choix de ces communes a été lié au fait que, malgré leur proximité géographique de chaque côté de la frontière et leurs similitudes environnementales, l’élevage familial n’était pas soumis aux mêmes conditions politiques et économiques, ce qui pouvait ou non influencer leurs perceptions et leurs réactions. Les résultats ont montré que les éleveurs étaient principalement affectés par les vulnérabilités provenant de facteurs externes comme le climat (sécheresses ou hivers rudes, par exemple) mais aussi de facteurs internes (accès à la terre limité, successeurs). Du point de vue des éleveurs familiaux, les plus grands risques pour leur système de production et leur mode de reproduction sociale étaient plutôt liés aux variations climatiques qu’aux facteurs de prix et de marchés.
APA, Harvard, Vancouver, ISO, and other styles
21

Charle, Christophe. "Elisabeth Crawford, La fondation des prix Nobel scientifiques, 1901-1915 (traduit de l'anglais par Nicole Dhombres), Paris, Éditions Belin, « Regards sur la science », 1988, 238 p." Annales. Histoire, Sciences Sociales 44, no. 4 (1989): 913–15. http://dx.doi.org/10.1017/s0395264900146864.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Werner Paulus et Jean Meinnel. "Préface." Journal de Physique IV (Proceedings) 103 (February 2003): III—IV. http://dx.doi.org/10.1051/jp4/20030000.

Full text
Abstract:
En 1994, l'attribution du prix Nobel à Cliff Shull et Bert Brockhouse pour leurs travaux de pionniers pendant les années 50, concernant tant la diffusion élastique des neutrons que la diffusion inélastique, a été la reconnaissance éclatante de l'importance de la diffusion neutronique pour toute la communauté scientifique.Le grand intérêt du neutron pour la recherche s'appuie principalement sur ses propriétés physiques particulières :- les neutrons utilisés pour la caractérisation de la matière (et fournis en relativement grandes quantités par les réacteurs ou les sources à spallation) disposent de longueurs d'onde et d'énergies correspondant directement aux distances interatomiques et aux énergies d'agitation de la matière. Ainsi, par diffusion neutronique, on peut étudier en même temps la structure et le comportement dynamique de la matière ;- le fait que le neutron soit doué d'un moment magnétique lui permet d'interagir avec tout atome porteur d'un moment magnétique. Ceci permet de caractériser intimement le comportement magnétique de la matière à l'échelle microscopique ;- la possibilité de pouvoir varier facilement le contraste d'un même élément en utilisant ses différents isotopes fait du neutron un outil irremplaçable en chimie et physique du solide ainsi qu'en biologie et matière molle ;- enfin, n'ayant pas de charge électrique, les neutrons peuvent pénétrer la matière sans être absorbés significativement, ce qui rend possible une caractérisation non destructive des contraintes et textures sur de grosses pièces des matériaux.Toutes les qualités des neutrons mentionnées ci-dessus permettent de comprendre l'importance de la diffusion neutronique pour des domaines très nombreux et très différents à la fois en recherche fondamentale mais aussi pour des applications industrielles. L'utilisation de l'outil-neutron demande toutefois non seulement une bonne connaissance des différents mécanismes d'interaction entre le neutron et la matière, mais également une haute spécificité dans la conception et l'utilisation des diffractomètres et spectromètres neutroniques. Pour ces raisons, l'accès aux neutrons est souvent limité, sinon réservé à des spécialistes, ce qui freine tout naturellement l'utilisation par des chercheurs non familiarisés à ce domaine.Pour combattre ce déficit d'information et cet état de fait, en accord avec de nombreux collègues Rennais, nous avons proposé à la Société Française de Neutronique d'organiser une École d'été qui s'adresse plus spécialement à de non-spécialistes de la diffusion neutronique. Le public visé concernait donc à la fois les chercheurs confirmés mais peu familiarisés avec le domaine neutronique, mais aussi les jeunes chercheurs dès le niveau doctorant. En effet pour ces derniers, l'utilisation des “grands instruments" s'avère nécessaire pour qu'ils soient à la hauteur de leur sujet de thèse. Pour cette raison, il était évident d'intégrer cette École d'été dans le programme de l'École Doctorale “Sciences des Matériaux" de l'Université de Rennes 1 qui rassemble chimistes, physiciens et géologues. Dans le même contexte, notre intérêt était de proposer un large spectre de cours couvrant la diversité des applications de la diffusion neutronique dans les différents domaines de recherche en chimie et physique des matériaux, en sciences de la terre ainsi qu'en sciences pour l'ingénieur. Un deuxième but était de montrer de plus la complémentarité des neutrons et des rayons X et plus spécifiquement des X produits par rayonnement synchrotron.Dans l'avenir, nous sommes persuadés que la diffusion neutronique va jouer un rôle clé pour le développement de nouveaux matériaux et de leur caractérisation. Dans cette optique, des efforts considérables ont été déjà engagés aux États-Unis ainsi qu'au Japon où deux nouvelles sources de neutrons sont en cours de construction. Du point de vue européen, si les sources de l'ILL et d'ISIS peuvent encore être considérées comme des leaders au point de vue mondial, il est évidemment souhaitable que la nouvelle source neutronique à spallation (European Spallation Source : ESS) soit rapidement réalisée. Aujourd'hui ce projet est bien avancé, cette source devrait dépasser le flux des sources actuelles par près de deux ordres de grandeur et ainsi de maintenir au meilleur niveau les compétences Européennes. Il est évident qu'une utilisation efficace et intelligente des sources existantes, mais aussi de celles de la nouvelle génération, implique une certaine infrastructure nationale tant au niveau de la conception, de la réalisation que du fonctionnement des différents spectromètres. Ceci implique un très fort engagement des universités dans les différents projets de recherche. Le devoir des universités qui en résulte est donc d'intégrer l'utilisation des “grands instruments" dans leur programme d'enseignement. Dans ce sens, nous souhaitons que ce cours, entièrement rédigé en français, contribue à la fois à aider les chercheurs “non spécialistes” à accéder plus facilement au domaine neutronique, mais aussi à servir de base aux enseignants pour l'organisation et la préparation de leurs cours.Nous tenons à remercier tous les collègues qui ont accepté de rédiger de façon détaillée les cours qu'ils avaient présentés oralement dans la grande salle du VVF de Trégastel, ainsi que toutes les personnes qui ont contribué à la réussite du séjour ou à la réalisation de ce fascicule. Nous gardons un excellent souvenir de l'atmosphère de l'École qui a eu lieu à Trégastel, en plein centre de la côte de granite rose en Bretagne, en mai 2001 et était jumelée avec les Journées de la diffusion neutronique, elles aussi organisées sous l'égide de la SFN.Nous souhaitons que la lecture de cet ouvrage soit utile à un maximum de chercheurs.
APA, Harvard, Vancouver, ISO, and other styles
23

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente.
 Une domination néoclassique ?
 L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”.
 La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique.
 Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée.
 Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73).
 Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués.
 Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique.
 Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB.
 La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque.
 Une absence de pluralisme ?
 Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible.
 A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès.
 Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie.
 * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019.
 
 Références:
 Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85.
 Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press.
 Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527.
 De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo.
 De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137.
 Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124.
 Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles
24

"Prix de la meilleure thèse en sciences économiques." Revue d'Économie Régionale & Urbaine juillet, no. 3 (2003): 541. http://dx.doi.org/10.3917/reru.033.0541.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Dr KOUAKOU Kouakou Paul-Alfred. "ESTIMATION DES EFFETS MACROECONOMIQUES DE LA VOLATILITE DES COURS INTERNATIONAUX DU CACAO A L’AIDE DU MODELE VAR/VECM : SELON LE CAS DE LA COTE D’IVOIRE." InterConf, November 10, 2021, 29–53. http://dx.doi.org/10.51582/interconf.7-8.11.2021.003.

Full text
Abstract:
L’étude examine la relation dynamique entre la volatilité du prix du cacao sur le marché international et le développement économique en Côte d’Ivoire à court et long terme. Pour atteindre ce but, une base de données allant de 1970 à 2018 a été analysée à l’aide du modèle VAR/VECM. De l’analyse, il ressort que les fluctuations des cours du cacao affectent négativement et significativement les agrégats économiques de ce pays. Ainsi, lorsque que les prix du cacao diminuent, les revenus chutent et les dépenses publiques baissent proportionnément. En somme, la volatilité des prix du cacao influence les principaux indicateurs de performances économiques que sont le produit intérieur brut, les dépenses gouvernementales, la masse monétaire, le taux de change réel et l'inflation. Dans ce contexte, des politiques économiques appropriées devraient être mises en place afin d’atténuer les effets néfastes de la volatilité des cours du cacao.
APA, Harvard, Vancouver, ISO, and other styles
26

Vrins, Frédéric. "Focus 30 - mars 2023." Regards économiques, March 30, 2023. http://dx.doi.org/10.14428/regardseco2023.03.30.01.

Full text
Abstract:
Le 17 mars 2023, Silicon Valley Bank (SVB), 16ème banque aux Etats-Unis par sa taille, déposait le bilan. Le jour même, l’action de Crédit Suisse, 17ème plus grande banque d’Europe, chutait de plus de 60% et sera rachetée deux jours plus tard par son principal concurrent, UBS, sous la pression du gouvernement helvète. Autour du 15 mars, les principales valeurs bancaires européennes perdaient plus de 10%, lâchant près de 20% en un mois. On peut donc légitimement se demander si nous ne sommes pas sur le point de revivre le scénario d’une crise bancaire mondiale avec les effets que l’on connait.
 La question se pose : faut-il avoir peur de nos banques ? La régulation est-elle assez stricte ? Les institutions qui dépendent du régulateur bancaire européen n’ont jamais été aussi solides, mais les réactions des investisseurs, y compris des épargnants, peuvent créer de grosses turbulences.
 En 2008, la crise financière trouvait son origine dans les subprimes. Via la titrisation, ces crédits hypothécaires toxiques se sont retrouvés sur le bilan d’un grand nombre de banques (voir le numéro 64 de Regards économiques). Ne connaissant pas précisément l’exposition des autres institutions financières à ces produits, la méfiance contamina l’ensemble du secteur et le robinet des liquidités interbancaires fut coupé. La crise de 2008 révéla au grand jour le risque de liquidité des banques (à savoir le risque de ne pas pouvoir se refinancer), y compris de celles présentant un risque systémique. Elle mena à des réformes importantes dans la régulation bancaire, notamment via l’introduction des ratios de liquidités de Bâle III (Leverage Coverage Ratio, LCR et Net Stable Funding Ratio, NSFR) destinés à mesurer les risques associés (voir le numéro 96 de Regards économiques). Les problèmes de SVB et de Crédit Suisse ont des origines différentes, mais engendrent le même climat de méfiance et de panique dans le secteur.
 Le cas de SVB
 La faillite de SVB est malheureusement un exemple tout à fait classique d’une gestion catastrophique : un bilan de 212 milliards de dollars composé notamment, côté passif, d’environ 173 milliards de dépôts (essentiellement d’entreprises) et, du côté actif, de 112 milliards de titres à revenu fixe, principalement des créances garanties par des institutions bénéficiant du support du gouvernement américain (MBS) ainsi que des bons du Trésor de maturité supérieure à 10 ans. Malgré l’excellente qualité de ces titres, le bilan de la banque californienne était fort déséquilibré, car très exposé au risque de taux d’intérêt : l’augmentation des taux à 10 ans de 1,5% à 4% au cours de l’année 2022 [1] aura entrainé une perte de valeur sur ces titres de près de 15 milliards de dollars, ce qui correspond à la quasi-totalité des 16 milliards de dollars que comptaient les fonds propres de haute qualité (Core Equity Tier 1, CET1) de la banque [2]. Le plus surprenant dans cette histoire est que SVB était tout à fait consciente de sa large exposition au risque de taux, comme l’attestent des rapports de risque datant de 2021. Il est probable qu’elle n’y ait pas suffisamment porté attention, ayant l’intention de détenir ces actifs jusqu’à leur maturité (l’autre explication proviendrait d’une absence de gestion de risque, le poste de directeur financier (CRO) étant resté vacant pendant la quasi-totalité de 2022 [3]). Le faible rendement des titres détenus (qu’on estime à environ 2%) ne permettait pas à SVB de répercuter sur ses dépôts l’augmentation brutale des taux décidée par la FED. Le doute quant à la solidité de la banque s’était immiscé, et la chute fut précipitée par le retrait massif des dépôts issus d’entreprises (très réactives aux taux offerts), et dont la plupart excédaient le seuil de protection garantie de 250.000 dollars. On estime qu’environ 97% des 173 milliards dépôts de SVB provenaient d’entreprises, une situation très inhabituelle dans la mesure où les dépôts dans les banques de détail proviennent en général majoritairement des particuliers (moins réactifs à une variation de taux et avec des montants se situant souvent sous la garantie de l’Etat).
 Le cas de Crédit Suisse
 S’agissant de la 45ème banque la plus importante du monde en 2022 et d’une des plus grandes d’Europe, Crédit Suisse est un mastodonte. Néanmoins, cette institution accumule les problèmes depuis de nombreuses années. Il y a quelques mois à peine, en octobre 2022, elle accepta de verser une compensation de plus d’un demi-milliard de dollars lors d’une transaction financière avec les autorités judiciaires américaines dans le cadre de la résolution d’un conflit lié à la crise de 2008. A cette époque, son cours était d’environ 80 francs suisses (CHF). Dix ans plus tard, en mars 2018, il n’était plus que de 15 CHF pour terminer à environ 2 CHF avant son rachat par UBS (au prix de 76 centimes par action). De manière assez paradoxale, c’est l’un des plus gros actionnaires de l’institution suisse, la Banque nationale saoudienne, qui a allumé la mèche en indiquant ne pas être en mesure d’injecter de nouveaux capitaux dans la banque helvète en raison d’une part actuelle de 9,9%, un niveau proche de la limite maximale autorisée dans leur mandat (10%) [4]. Apporter la précision qu’une augmentation de capital de Crédit Suisse n’était, selon elle, pas nécessaire n’y changera rien : à la mi-mars, les retraits s’enchainèrent à concurrence d’environ 10 milliards CHF par jour.
 Au suivant ?
 Comme souvent dans le secteur bancaire, les séismes se propagent très rapidement, la plupart des actions financières ayant lâché près de 20% depuis leur niveau enregistré au début du mois de mars. Dès lors, faut-il redouter une contagion à l’ensemble du secteur ?
 D’un côté, nous l’avons vu, les situations de ces deux institutions sont très particulières : SVB est une banque ayant un bilan très atypique, déséquilibré et essentiellement financé par des dépôts volatils d’entreprises très spécifiques (sociétés technologiques et investisseurs de capital à risque). De plus, son bilan étant inférieur à 250 milliards de dollars, elle n’était pas considérée comme une banque systémique par le régulateur américain, ce qui implique qu’elle n’était pas tenue de respecter des ratios de liquidités évoqués plus haut. Crédit Suisse, quant à elle, accumulait les problèmes depuis des années, et n’a pas pu bénéficier du soutien de son plus gros actionnaire pour des raisons de limite d’exposition atteinte. Il est donc très hasardeux de vouloir généraliser ces problèmes à l’ensemble du secteur.
 La situation des banques européennes reste très bonne. La régulation y est une des plus strictes au monde. La Belgique, en particulier, se situe parmi les meilleurs élèves de la classe en termes de capitalisation. Avec 19,7% de CET1 et beaucoup de cash, les banques belges sont très bien capitalisées (top 6 en Europe) [5,6]. Initialement fixé à 60% en 2015, le seuil minimum requis pour le ratio LCR a été poussé à 100% sous les normes de Bâle III, en 2018. L’autorité bancaire européenne (EBA) rapporte que la moyenne de ces ratios sur plus de 300 banques se situe actuellement bien au-delà, autour de 170% [7]1.
 Un point cependant nécessite une attention particulière : les ratios réglementaires de SVB et de Crédit Suisse étaient au vert. Ces banques étaient bien capitalisées (ratios CET1 et Tier One Leverage de 12,05% et de 8,11% pour SVB, et de 14,1% et 7,7% pour Crédit Suisse), plus du double des minimas requis. Bien que SVB n’était pas tenue de rapporter ses ratios de liquidité, plusieurs analystes s’accordent pour dire qu’ils auraient probablement été satisfaisants. C’était d’ailleurs le cas pour Crédit Suisse, dont les ratios de liquidité étaient de 144% (LCR) et 117% (NSFR), nettement supérieurs au seuil de 100% requis [8]. Du côté du régulateur, donc, ces banques étaient jugées suffisamment solides.
 Faut-il en conclure que la régulation doit être renforcée ? Indéniablement, la règlementation est déjà très stricte, et pèse lourdement sur la rentabilité des banques, particulièrement en Europe. De plus, il faut prendre conscience que la régulation est un jeu d’équilibriste avec des effets potentiellement pervers. En effet, des contraintes excessives limiteront les profits des institutions financières, et pousseront donc les banques dans des situations plus précaires encore. D’un autre côté, force est de constater qu’une banque, même saine (dans le sens où elle remplit toutes les conditions requises par le régulateur) reste très vulnérable à un bank run, c’est-à-dire un retrait massif des dépôts. De manière intéressante, la modélisation de la panique bancaire et les crises économiques qui en résultent sont au centre des recherches de D. Diamond et Ph. Dybvig, lauréats du prix de la Banque de Suède en sciences économiques (connu sous l’appellation de prix Nobel en économie) 2022 avec l’ancien président de la FED, Ben Bernanke [9]. La période actuelle démontre qu’au-delà des risques financiers réels mesurés par une pléthore d’indicateurs sophistiqués, le talon d’Achille du secteur bancaire réside essentiellement dans les réactions émotionnelles des investisseurs et épargnants [10]. Elles sont le symptôme d’une perte de confiance dans le secteur mais aussi, ce qui est plus inquiétant, dans la capacité des autorités régulatoires à pouvoir évaluer correctement la solidité des banques, et à garantir la stabilité de l’écosystème financier. Les banques restent fortement exposées au retrait massif de dépôts, source principale de leur financement. La résistance au bank run est difficile à évaluer, mais la régulation bancaire gagnerait probablement à renforcer ses analyses sur ce type de scénarios.
 
 
 1 Lorsque l’on analyse la solvabilité ou la prise de risque d’une institution financière, les montants absolus (tel que, par exemple, le montant des fonds propres) ne donnent pas une image complète concernant sa solidité; il faut analyser ces chiffres au regard des risques encourus. C’est la raison pour laquelle la régulation bancaire s’appuie sur des ratios où, en général, le numérateur correspond à des «rentrées» et le dénominateur à un «risque». Ainsi, par exemple, le taux de capitalisation CET1 correspond au rapport entre le montant de fonds propres de haute qualité et l’ensemble des actifs pondérés par les risques associés (risk-weighted assets, RWA, qui augmentent avec la prise de risque). Les banques belges ont, en moyenne, 19,7% de leurs RWA sous la forme de fonds propres de haute qualité. Le seuil minimum pour ce ratio, tel que déterminé dans les normes de Bâle III, est de 4,5%. D’autres ratios s’appliquent. Par exemple, les ratios LCR et NSFR mesurent la capacité qu’a l’institution financière de pouvoir faire face à des flux financiers sortants, pour lesquels les minimas requis sont actuellement de 100%. En Europe, ces ratios s’appliquent à toutes les banques (qu’elles soient systémiques ou non) et sont destinés à compenser le risque associé à la tendance naturelle qu’ont les banques à «jouer sur la courbe de taux», c’est-à-dire, à financer des besoins long-terme via des financements à court-terme. Cette approche permet à la banque de capter le différentiel de taux résultant de la différence de maturités entre actif et passif mais, comme l’illustre parfaitement le cas de SVB, elle entraine un risque de taux sur le bilan.
APA, Harvard, Vancouver, ISO, and other styles
27

"Index par sujet : Mini-synthèses, Nouvelles, Chroniques génomiques, Faits et chiffres, Courrier, Prix Nobel 95, Histoire de la médecine et des sciences, Lettres, Brèves." médecine/sciences 11, no. 12 (1995): 1794. http://dx.doi.org/10.4267/10608/2391.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Souza, Maria Adélia Aparecida de. "Ciências Humanas e Sociais: ciências moles? A propósito do trabalho científico nesta contemporaneidade." GeoTextos 7, no. 1 (2011). http://dx.doi.org/10.9771/1984-5537geo.v7i1.5276.

Full text
Abstract:
Este ensaio busca atender uma velha e interminável discussão sobre uma questão que longe de ser científica é, sobretudo, política, qual seja a classificação das ciências. A Geografia tem oscilado nessas classificações: ora é uma ciência humana, social, ora é uma ciência da natureza. Este estímulo é o motivo principal da realização deste ensaio que, inspirado em uma interessante reflexão de Abraham Moles, prêmio Nobel de Matemática, quando sugere que reflitamos com seriedade científica e acadêmica sobre esse debate. Esse autor propõe corajosamente que as ciências humanas sejam elas sim consideradas “ciências duras”. Aqui é defendida a tese de que, dadas as características e dinâmicas do mundo do presente, as classificações carecem de um processo de discussão condizente com a essência do mundo de hoje, que reverte por vezes o conhecimento pré-estabelecido. Sugere-se, por exemplo, nesta perspectiva, que o espaço geográfico, por ser uma instância social, tal como a economia, a política e a cultura, seja considerado uma categoria social de análise e não um palco de realização da vida, como tem sido considerado pela geografia descritiva, completamente ultrapassada pela velocidade do mundo e pelos sistemas técnicos disponíveis.
 
 Resumé
 
 SCIENCES HUMAINES ET SOCIALES: SCIENCES "MOLLES"? A PROPOS DU TRAVAIL SCIENTIFIQUE DANS LA CONTEMRAINETÉ
 
 Ce teste cherche à participer d´une interminable discussion sur question du classement des sciences. Catte discussion, loin d'être scientifique ou académique est uni discussion politique. Une source d'inspiration de cette reflexion a été I'oeuvre de Abraham Moles, Prix Nobel de Mathématique. Eant la Géographie une science que parfois est classée comme science de la nature, parfois comme science humaine et sociale. Catte discussion a inspirée aussi cet article. II attire I' ATTENTION SUR LA necessité, pour cette de prendre en consideration les caracteristiques du monde contemporain que par sa nature bouleverse, d'un jour à I"autre, n'importe quelle classification scientifique. Ainsi, par exmple, est proposé ici que I'espace géographique soit pris comme une catégorie d'analyse sociale et non plus comme um scène où la vie et les activités humaines se derroullent, comm toujours il a été consideré par la géographie il y a un siècle.
APA, Harvard, Vancouver, ISO, and other styles
29

Baiardi, Amilcar. "ELINOR OSTROM, A PREMIAÇÃO DA VISÃO UNIFICADA DAS CIÊNCIAS HUMANAS." Caderno CRH 24, no. 61 (2011). http://dx.doi.org/10.9771/ccrh.v24i61.19198.

Full text
Abstract:

 
 
 
 61 Baiardi
 
 
 Sempre houve preocupações no sentido de
 estabelecer uma conexão histórica e
 paradigmática entre a sociologia, a economia e a
 política, sustentando a unificação dos
 campos científicos e
 trazendo de volta aquilo que para Weber era a Ciência Social
 como “Ciência da Realidade”, voltada para
 a compreensão da significação cultural
 atual dos fenômenos e para o entendimento
 de sua origem histórica e que, para Marx, era a busca da
 totalidade, fundamental porque não seria possível
 compreender as partes sem uma visão do todo. Neste texto,
 explora-se esse
 “approach”, focando a obra de Elinor Ostrom,
 vencedora do Prêmio Nobel de Economia de 2009, que sempre se
 recusou a ver a esfera das ciências humanas como uma
 “Torre de Babel”,
 mas sim como um ambiente com amplas possibilidades de
 integração, sendo sua práxis um
 exemplo completo e eloquente de convergência e de
 síntese nas ciências sociais. Após o
 breve
 exame de alguns casos emblemáticos de tentativas de
 integração das ciências sociais,
 analisam-se a trajetória acadêmica de Elinor
 Ostrom e suas principais contribuições para as
 pesquisas
 sobre os recursos e bens de propriedade comum.
 
 PALAVRAS-CHAVE: propriedade comum, cooperação,
 interdisciplinaridade, instituições e
 governança.
 
 ELINOR OSTROM, THE
 AWARDING OF AN UNIFIED VISION OF HUMAN SCIENCES
 Amilcar Baiardi
 
 There were always concerns regarding the establishment of a
 paradigmatic and historical connection between sociology, economy and
 politics, supporting the unification of these scientific fields and
 bringing back what to Weber was Social Sciences as “Science
 of Reality”, aimed at understanding the current cultural
 significance of phenomena and to the understanding of its historical
 origin and that, for Marx, was the pursuit of wholeness, of paramount
 importance because it would not be possible to understand the parts
 without a vision of the whole. In this text, one explores this
 approach, focusing on the work of Elinor Ostrom, winner of the Nobel
 Prize in Economics in 2009, who has always refused to see the sphere of
 human sciences as a “Tower of Babel,” but rather as
 an environment with ample opportunity for integration, their praxis
 being a full and eloquent example of convergence and synthesis in the
 social sciences. After a brief examination of some emblematic cases of
 attempted integration of the social sciences, one analyzes the academic
 career of Elinor Ostrom and her major contributions to research on the
 resources and assets under common ownership.
 
 KEYWORDS: common property, cooperation, interdisciplinarity,
 institutions and governance.
 
 ELINOR OSTROM, PRIX DE LA
 VISION UNIFIÉE DES SCIENCES HUMAINES
 Amilcar Baiardi
 
 La préoccupation d’établir un lien
 historique et paradigmatique entre la sociologie,
 l’économie et la politique a toujours
 existé. Elle soutient l’unification des domaines
 scientifiques et rapporte
 ce qu’étaient pour Weber les Sciences Sociales,
 les “Sciences de la Réalité”,
 tournées vers la compréhension de la
 signification culturelle actuelle des phénomènes
 et celle de son origine historique
 qui, pour Marx, était la recherche du tout, fondamental, car
 il est impossible d’en comprendre les parties sans avoir une
 perception de l’ensemble. On explore, dans ce texte, cette
 ‘approche’ en
 focalisant l’œuvre de Elinor Ostrom, Prix Nobel
 d’Économie en 2009, qui n’a jamais voulu
 considérer la sphère des Sciences Humaines comme
 une “Tour de Babel” mais au contraire comme un
 environnement rempli de possibilités
 d’intégration, sa praxis étant un
 exemple complet et éloquent de convergence et de
 synthèse des sciences sociales. Après avoir
 brièvement examiné quelques cas
 emblématiques de tentatives
 d’intégration des sciences sociales, on fait
 l’analyse de la carrière universitaire de Elinor
 Ostrom et de ses contributions majeures apportées
 à la recherche concernant les
 ressources et les actifs de propriétés communes.
 
 MOTS-CLÉS: propriété commune,
 coopération, interdisciplinarité, institutions et
 gouvernance.
 
 Publicação
 Online do Caderno CRH: http://www.cadernocrh.ufba.br
 
 
 Publicação
 Online do Caderno CRH no Scielo: http://www.scielo.br/ccrh
 
 
 
 
APA, Harvard, Vancouver, ISO, and other styles
30

Germain, Marc. "Numéro 116 - juin 2015." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14493.

Full text
Abstract:
L’intention de ce numéro de Regards économiques est d’explorer le principe d’une taxe portant exclusivement sur la terre. Comme son nom l’indique, la taxe terrienne porte sur la terre proprement dite, et non sur les fruits que l’homme peut en tirer grâce à son travail (par exemple les récoltes de l’agriculteur), ni sur les bâtiments éventuellement construits dessus.
 A travers la taxe terrienne, c’est l’occupation privative du sol qui est visée. La terre présente en effet la particularité de ne pas être produite par l’activité économique, mais d’être une ressource naturelle «fournie gratuitement» par la nature. En conséquence, son appropriation privée pose le problème de légitimité suivant : de quel droit un individu peut-il s’approprier une parcelle de terre qu’il n’a pas produite et ce faisant, d’en monopoliser les services?
 Les services offerts par la propriété terrienne sont multiples et variés : il peut s’agir par exemple de la beauté du site, de la fertilité du sol ou d’avantages offerts en termes de proximité de services publics locaux (écoles, hôpital,...). En monopolisant ces services, le propriétaire exclut d’autres personnes de la possibilité d’en jouir, ce qui peut justifier qu’une contrepartie soit exigée par la collectivité, contrepartie qui peut prendre la forme d’une taxe terrienne.
 En principe, toutes les terres, urbaines, agricoles ou autres, sont susceptibles de faire partie de la base de la taxe. Celle-ci peut être calculée en fonction de critères différents. L’article envisage trois cas, selon que la taxe porte sur la surface, la valeur ou le revenu de la terre (ce qu’on appelle la rente terrienne). Ces trois formes de taxe ne sont bien sûr pas équivalentes, notamment en termes d’équité ou au niveau des informations nécessaires pour les appliquer.
 La taxe terrienne est à la fois une idée ancienne et toujours d’actualité. Elle est appliquée à des degrés divers ou fait l’objet d’études dans différents pays. Elle a eu dans le passé des partisans illustres, à l’exemple d’Adam Smith. Elle bénéficie encore aujourd’hui du soutien de plusieurs «prix Nobel d’économie». Plusieurs arguments sont en effet avancés en sa faveur par ses défenseurs.
 Le premier est qu’elle porte sur un facteur immobile et donc non éludable. Un deuxième argument est qu’elle pourrait constituer un instrument de politique foncière, en particulier pour lutter contre la spéculation et les pratiques de rétention de terre (une réalité présente en Wallonie). Elle pourrait aussi constituer un mécanisme de compensation financière (au moins partiel) des propriétaires en cas d'installation d'une «nuisance» dans leur voisinage (par exemple une éolienne), ce qui serait susceptible d'atténuer des attitudes du type «pas chez moi !». Un autre argument en faveur de la taxe terrienne, tout particulièrement en milieu urbain, est qu’elle inciterait le propriétaire d’une parcelle à tenir compte des coûts de congestion qu'il crée dans son environnement.
 L’intérêt passé et présent relatif à la taxe terrienne s’explique aussi par les questions et enjeux autour d’une telle taxe. Son application pose dès le départ le problème fondamental de son but et de son «ambition». A titre d’exemple, doit-elle concerner tout le territoire d’un pays ou seulement certaines zones en fonction de leurs affectations ? Doit-elle être conçue de façon isolée, ou dans le cadre d’une vaste réforme de la fiscalité (le fameux tax-shift) ? A quel niveau doit-t-elle être fixée ? L’application d’une taxe terrienne peut avoir un caractère limité et local, ou au contraire être beaucoup plus ambitieuse et globale. Les enjeux financiers, notamment pour les pouvoirs publics, seront évidemment très différents. Enfin, comme tout instrument fiscal, l’application d’une taxe terrienne pose la question de ses impacts sur les activités économiques, en particulier sur la viabilité des exploitations agricoles.
 Vu l’ampleur du sujet, il était impossible d’étudier tous les aspects de la taxe terrienne dans le cadre de cette étude. Aussi se termine-t-elle par une invitation à une étude beaucoup plus approfondie et nécessairement multidisciplinaire à son propos.
APA, Harvard, Vancouver, ISO, and other styles
31

Germain, Marc. "Numéro 116 - juin 2015." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2015.06.01.

Full text
Abstract:
L’intention de ce numéro de Regards économiques est d’explorer le principe d’une taxe portant exclusivement sur la terre. Comme son nom l’indique, la taxe terrienne porte sur la terre proprement dite, et non sur les fruits que l’homme peut en tirer grâce à son travail (par exemple les récoltes de l’agriculteur), ni sur les bâtiments éventuellement construits dessus.
 A travers la taxe terrienne, c’est l’occupation privative du sol qui est visée. La terre présente en effet la particularité de ne pas être produite par l’activité économique, mais d’être une ressource naturelle «fournie gratuitement» par la nature. En conséquence, son appropriation privée pose le problème de légitimité suivant : de quel droit un individu peut-il s’approprier une parcelle de terre qu’il n’a pas produite et ce faisant, d’en monopoliser les services?
 Les services offerts par la propriété terrienne sont multiples et variés : il peut s’agir par exemple de la beauté du site, de la fertilité du sol ou d’avantages offerts en termes de proximité de services publics locaux (écoles, hôpital,...). En monopolisant ces services, le propriétaire exclut d’autres personnes de la possibilité d’en jouir, ce qui peut justifier qu’une contrepartie soit exigée par la collectivité, contrepartie qui peut prendre la forme d’une taxe terrienne.
 En principe, toutes les terres, urbaines, agricoles ou autres, sont susceptibles de faire partie de la base de la taxe. Celle-ci peut être calculée en fonction de critères différents. L’article envisage trois cas, selon que la taxe porte sur la surface, la valeur ou le revenu de la terre (ce qu’on appelle la rente terrienne). Ces trois formes de taxe ne sont bien sûr pas équivalentes, notamment en termes d’équité ou au niveau des informations nécessaires pour les appliquer.
 La taxe terrienne est à la fois une idée ancienne et toujours d’actualité. Elle est appliquée à des degrés divers ou fait l’objet d’études dans différents pays. Elle a eu dans le passé des partisans illustres, à l’exemple d’Adam Smith. Elle bénéficie encore aujourd’hui du soutien de plusieurs «prix Nobel d’économie». Plusieurs arguments sont en effet avancés en sa faveur par ses défenseurs.
 Le premier est qu’elle porte sur un facteur immobile et donc non éludable. Un deuxième argument est qu’elle pourrait constituer un instrument de politique foncière, en particulier pour lutter contre la spéculation et les pratiques de rétention de terre (une réalité présente en Wallonie). Elle pourrait aussi constituer un mécanisme de compensation financière (au moins partiel) des propriétaires en cas d'installation d'une «nuisance» dans leur voisinage (par exemple une éolienne), ce qui serait susceptible d'atténuer des attitudes du type «pas chez moi !». Un autre argument en faveur de la taxe terrienne, tout particulièrement en milieu urbain, est qu’elle inciterait le propriétaire d’une parcelle à tenir compte des coûts de congestion qu'il crée dans son environnement.
 L’intérêt passé et présent relatif à la taxe terrienne s’explique aussi par les questions et enjeux autour d’une telle taxe. Son application pose dès le départ le problème fondamental de son but et de son «ambition». A titre d’exemple, doit-elle concerner tout le territoire d’un pays ou seulement certaines zones en fonction de leurs affectations ? Doit-elle être conçue de façon isolée, ou dans le cadre d’une vaste réforme de la fiscalité (le fameux tax-shift) ? A quel niveau doit-t-elle être fixée ? L’application d’une taxe terrienne peut avoir un caractère limité et local, ou au contraire être beaucoup plus ambitieuse et globale. Les enjeux financiers, notamment pour les pouvoirs publics, seront évidemment très différents. Enfin, comme tout instrument fiscal, l’application d’une taxe terrienne pose la question de ses impacts sur les activités économiques, en particulier sur la viabilité des exploitations agricoles.
 Vu l’ampleur du sujet, il était impossible d’étudier tous les aspects de la taxe terrienne dans le cadre de cette étude. Aussi se termine-t-elle par une invitation à une étude beaucoup plus approfondie et nécessairement multidisciplinaire à son propos.
APA, Harvard, Vancouver, ISO, and other styles
32

Hervé, Caroline. "Communs." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.086.

Full text
Abstract:
Les communs (commons en anglais) peuvent être définis comme un ensemble de ressources physiques, matérielles ou immatérielles que les êtres humains cherchent à exploiter, à gérer ou à protéger pour assurer leur survie biologique, économique, sociale ou encore culturelle. Très à la mode depuis une quarantaine d’années en anthropologie, sociologie, histoire, économie ou encore en philosophie, ce concept a vu son champ d’application s’élargir, ses propositions théoriques s’étoffer et ses analyses se complexifier, tout en perdant progressivement son sens historique. Sortis du champ académique et instrumentalisés par les mouvements de résistance au néolibéralisme, les communs sont désormais au cœur de débats de société. La façon dont cette notion interroge les interactions entre les êtres humains et leur environnement, son intérêt pour éclairer la fabrication du social et sa réutilisation dans le débat public en fait un objet de recherche riche pour l’anthropologie. La définition du concept de communs est une entreprise difficile tant il renvoie à des usages divers. Si certains chercheurs tendent à privilégier, en français, l’usage du pluriel afin de marquer la grande variété des ressources regroupées sous la terminologie de communs, que l’on parle de ressources naturelles, mais également sociales ou intellectuelles, d’autres auteurs insistent sur l’importance d’utiliser le terme au singulier afin de souligner son potentiel théorique et pratique (Hardt et Negri 2012 ; Dardot et Laval 2014). L’origine étymologique du terme commun, construit sur les locutions latines cum et munus, renvoie à une idée centrale, celle de la mise commun ou de la gestion commune de biens, mettant l’accent sur le fait que le commun « implique donc toujours une certaine obligation de réciprocité liée à l’exercice de responsabilités publiques » (Dardot et Laval 2014 : 23). Ces deux aspects, celui de réciprocité et de responsabilité publique, sont au cœur de la définition historique des communs. Les origines du concept renvoient à une pratique de gestion des terres qui était courante dans différentes régions d’Europe avant la fin du Moyen-Âge et qui consistait en la gestion commune de certaines terres par un groupe de personnes ou d’unités familiales pendant une période de temps limitée. Dans certaines circonstances, tout le monde pouvait avoir accès à ces terres, selon des règles d’usage particulières ; dans d’autres cas, leur usage était restreint et contrôlé. Ce fonctionnement communal a progressivement été mis en cause par les autorités publiques et les cercles politiques à partir du milieu du XVIIIe siècle. En l’espace d’un siècle, la plupart des communs en Europe de l’ouest devinrent ainsi des propriétés privées ou publiques (De Moor 2011 : 425). Ceci correspond au phénomène connu des enclosures qui s’est particulièrement développé en Angleterre dans la seconde moitié du XVIIIe siècle, à travers lequel de larges étendues de champs ouverts, connus sous le nom de terrains communaux ou commons, ont progressivement été parcellisés et enclos (Hemmungs Wirtén 2013 : 2), dans un contexte marqué par l’augmentation démographique et l’industrialisation. Ce retour dans l’histoire est important pour comprendre les confusions qui sont apparues lorsque les chercheurs des différentes disciplines ont commencé à s’intéresser plus largement à la question des communs à partir du milieu du XXe siècle. L’une des confusions les plus importantes a été introduite par le biais du travail de Garrett Hardin dans son célèbre article « The Tragedy of the Commons », publié en 1968, dans lequel il explique que les communs sont susceptibles de surexploitation et donc de disparition. Sa thèse principale repose sur l’idée biaisée que les communs historiques étaient accessibles à tous et en tout temps. À la suite de la parution de cet article, les chercheurs ont ainsi commencé à utiliser le terme de communs pour faire référence à toutes formes de ressources utilisées par tous et sans contrôle, ce qui ne correspond pourtant pas à sa définition historique (De Moor 2011 : 425). L’article de Hardin a ouvert de nombreuses recherches portant sur les solutions à mettre en œuvre pour contrer la dégradation des communs. Mais ces travaux sont souvent restés coincés entre deux options : la prise en charge des communs par l’État ou par le marché. C’est dans ce contexte que le travail de la politologue Elinor Ostrom (1990), en proposant une troisième voie, a eu un retentissement important dans le monde académique, et même au-delà. La publication de son livre Governing the Commons constitue une étape essentielle dans les recherches sur la gestion des communs. Non seulement, elle montre que l’exploitation des communs ne mène pas inéluctablement vers leur fin, mais elle explore la diversité des arrangements institutionnels permettant la gestion de ceux-ci, sans pour autant avoir recours à l’État ou à la privatisation. Sa contribution est consacrée en 2009 lorsqu’elle reçoit, en même temps qu’Oliver Williamson, le prix Nobel d’économie pour son analyse de la gouvernance économique et celle des communs. La création de l’International Association for the Study of the Commons en 1989 ou encore la création de l’International Journal of the Commons en 2007, révélateurs d’un engouement scientifique pour la question des communs, permettent la diffusion des théories et des méthodes dans les différentes disciplines et dans la société civile, à tel point que l’étude même des communs comporte aujourd’hui des enjeux politiques, sociaux et même éthiques (Peugeot et Piron 2015). Les travaux d’Elinor Ostrom s’inscrivent dans une démarche résolument interdisciplinaire puisqu’elle utilise des études de cas, des concepts, des modèles et des méthodes issus de différentes sciences sociales, et tout particulièrement de l’anthropologie. Loin de développer une perspective purement institutionnelle, Ostrom s’intéresse en effet avant tout aux stratégies développées par les acteurs sociaux pour gérer des ressources en commun. Elle s’appuie pour cela sur de nombreuses études de cas développées par des anthropologues pour comprendre par exemple les systèmes d’irrigation au Népal, dans les Philippines ou à Los Angeles, la gestion des forêts en Inde, en Asie, en Afrique et en Amérique latine ou encore la pêche côtière en Inde ou au Canada (Acheson 2011 : 320). Même si son usage de l’anthropologie est qualifié de fragmentaire, puisque sortant ces études de cas de leurs contextes politiques ou culturels, ses travaux sont néanmoins reconnus comme une contribution majeure à la discipline anthropologique (Rabinowitz 2010). Outre celle des interactions entre les hommes et leur environnement, les travaux d’Ostrom rejoignent bien d’autres questions intéressant les anthropologues. Ils interrogent directement la gestion des ressources collectives, la nature des liens de coopération et la fabrique des communautés (Rabinowitz 2010 : 104), la production des normes et des règles sociales, ainsi que de la propriété, privée ou publique (Acheson 2011 : 320). Enfin, en montrant le rôle important de la réciprocité dans la plupart des cas de gestion alternative des ressources, les anthropologues ont mis en évidence, à partir de leurs différents terrains, le fait que l’homme n’était pas uniquement animé par une logique économique, mais que le symbolisme était central dans les pratiques d’échange, renvoyant ainsi aux théories sur le don, concept dont les anthropologues ont étudié les multiples formes dans les sociétés humaines. Dans la foulée des propositions théoriques de Hardin et de Ostrom, un véritable engouement s’est manifesté autour de la question de ces communs naturels, en anthropologie et dans les autres disciplines des sciences sociales. Ces travaux ont fourni des modèles inspirant pour d’autres types d’objets de recherche et plus récemment les chercheurs ont commencé à identifier de nouveaux communs (new commons), comme des biens communs sociaux (social commons) qui constituent des ressources sociales ou des services destinés à des groupes sociaux spécifiques, des communs de nature intellectuelle ou encore culturelle incluant des ressources aussi variées que la musique, l’artisanat, les technologies numériques, etc. (Nonini 2006 : 166-167). Certains anthropologues ont même avancé l’idée que les communs peuvent englober des dimensions plus invisibles de la vie sociale relevant du domaine cognitif, corporel ou affectif, comme par exemple chez les Urarina, peuple indigène du Pérou, pour lesquels la notion même de tranquillité doit être l’objet d’un partage ou d’une réciprocité (Walker 2015). L’extension du concept de communs à des domaines aussi divers de la vie sociale explique aujourd’hui la difficulté à en donner une définition uniforme et certaines ambivalences quant à ses usages et ses analyses. De façon plus générale, la naturalisation du discours sur les biens communs a nécessité de s’engager dans une réflexion critique sur cet objet, ce que l’anthropologie a pu prendre en charge à travers sa capacité à mettre en perspective la production du social. Le succès du terme ne s’est en effet pas limité au milieu académique. Dans le contexte des dernières décennies, alors que des corporations, des gouvernements et d’autres types d’institutions politiques, privées ou non-gouvernementales, ont dépossédé certains groupes humains de leurs ressources dans la mouvance de la globalisation néolibérale, des stratégies de résistance et de lutte pour conserver ou retrouver le contrôle sur ces biens se sont développées (Nonini 2006 : 165). Dans le même temps, les propositions théoriques sur les communs ont mis en valeur des alternatives séduisantes face à la mainmise du marché ou de l’État sur ces ressources. Les anthropologues ont ainsi montré que ces luttes ne concernent pas seulement le contrôle des ressources matérielles mais également le contrôle des significations culturelles associées aux communs et aux processus qui les préservent ou les détruisent (Nonini 2006 : 165). Les stratégies et les perspectives antagonistes des différents groupes se disputant les communs sont ainsi devenues des objets de recherche riches pour l’anthropologie. Dans le contexte sud-américain où la surexploitation des ressources naturelles s’impose comme un nouveau paradigme économique, le constat que chacune des deux parties réutilise le concept de biens communs et de communs pour légitimer, d’un côté l’exploitation des ressources naturelles, et de l’autre la lutte contre cette exploitation, rappelle la nécessité de repenser les fondements ontologiques de chacune de ces deux façons de concevoir la relation entre les humains et le monde naturel. Dans ce cadre, les peuples autochtones nous invitent plutôt à penser ces confrontations ontologiques à travers le concept d’« incommuns » ; celui-ci révèlerait plutôt l’existence et la persistance d’une certaine incompatibilité entre différentes façons d’être au monde. En effet, alors que les entreprises extractrices font reposer leurs justifications sur la distinction entre nature et culture, et plus précisément sur le contrôle de la nature par les êtres humains, les peuples autochtones de leur côté se perçoivent en continuité avec le monde naturel, engagé dans une relation réciproque avec lui et dans l’obligation de le protéger (Blaser et De La Cadena 2017 : 186-187).
APA, Harvard, Vancouver, ISO, and other styles
33

PARIS, A. "Introduction." INRAE Productions Animales 19, no. 3 (2006). http://dx.doi.org/10.20870/productions-animales.2006.19.3.3492.

Full text
Abstract:
Durant la seconde moitié du 20e siècle, le progrès des connaissances en physiologie, en particulier dans les domaines de la nutrition, de la croissance et de la reproduction, et l'amélioration des pratiques d'élevage sont allés de pair. Il s'agissait in fine de répondre à une exigence économique, au moins dans les pays les plus développés, celle qui consistait à atteindre d'abord l'autosuffisance alimentaire avec un meilleur statut sanitaire des élevages et des productions puis, dans un deuxième temps, à développer des capacités d'exportation d'animaux ou de produits animaux. D'un point de vue agronomique, cela s'est traduit par une nécessaire amélioration des performances de l'élevage, en particulier en augmentant la vitesse de croissance des animaux, le niveau de production laitière, l'efficacité de la valorisation nutritionnelle des aliments, ou la possibilité d'accroître sensiblement les capacités de reproduction des cheptels, tout ceci en considérant les contraintes sanitaires et d'organisation du travail liées à une diminution radicale de la population agricole tout au long de ces 50 dernières années.
 L'essor après-guerre de l'industrie pharmaceutique a permis de créer de très nombreux analogues des premiers stéroïdes naturels qui venaient d'être décrits, tant au plan structural que de leur rôle dans la physiologie de la reproduction ou de la croissance. Ainsi, avant que les mécanismes et modes d'action de ces hormones ne soient clairement établis, celles-ci pouvaient déjà être utilisées, que ce soit pour mieux maîtriser la reproduction ou pour améliorer la croissance des animaux. Dès les années 50, les premiers stéroïdes anabolisants avaient fait leur apparition en élevage. Le diéthylstilbœstrol (DES) synthétisé à la fin des années 30 (Dodds et al 1938) a pu être utilisé comme promoteur de croissance jusqu'à la fin des années 70 aux USA où, depuis, il a été interdit en raison de risques importants pour la santé du consommateur (Herbst et al 1971, Fara et al 1979, Herbst et Bern 1981, Perez-Comas 1988). A compter de cette période, une réévaluation des caractéristiques toxicologiques des quelques molécules utilisées pour leurs propriétés hormonales a permis de mieux préciser les risques pour le consommateur, de renforcer les contrôles de molécules analogues pouvant être utilisées frauduleusement et d'encourager la mise en place de nouvelles recherches pour encore mieux apprécier les effets, à des doses faibles, de résidus qui peuvent être retrouvés dans certains tissus destinés à la consommation. Des divergences d'opinions, scientifiques, économiques et politiques, sont apparues entre l'Union européenne (UE) et certains pays hors l'UE à l'occasion de l'application stricte en 1988 par l'UE du principe de précaution en matière d'utilisation des hormones stéroïdiennes, essentiellement comme anabolisants. En effet, la position adoptée par l'UE s'appuie sur la mise en avant d'un certain nombre de difficultés d'interprétation de résultats permettant de conclure à l'absence d'effet toxique des faibles doses de résidus de ces hormones présentes dans les produits animaux destinés à la consommation (SCVPH 2002, Andersson et Skakkebæk 1999). Dans l'UE, une hormone peptidique, l'hormone de croissance, pouvant être utilisée dans les élevages laitiers ou dans les élevages de porcs à l'engrais, a subi plus récemment le même sort que les stéroïdes anabolisants, même si l'évaluation des risques propres à son utilisation ne peut être comparée à celle des stéroïdes. Le bannissement des β-agonistes dans l'UE est à ranger dans le même cortège réglementaire.
 En filigrane, le souci apparu depuis plus d'une dizaine d'années d'améliorer la qualité et la traçabilité des produits animaux, de maintenir les prix à la production, d'assainir l'environnement économique des productions animales et éviter ainsi des situations structurelles d'excédent, très coûteuses, telles qu'elles existaient dans les années 70 et 80 en Europe de l'Ouest explique aussi la position ferme adoptée par l'UE en matière de recours aux promoteurs de croissance. Cette tendance forte ne peut être ignorée des acteurs des filières concernées. Elle constitue d'ailleurs un nouveau jeu de contraintes à intégrer dans les différents paramètres technico-économiques à prendre en considération dans les pratiques d'élevage actuellement en place, à condition d'en mieux connaître les bases génétiques, physiologiques et biochimiques.
 C'est dans ce climat actuel d'interrogation sur l'avenir des filières animales que la nécessité d'une synthèse bibliographique actualisée sur les risques posés en matière de santé publique par l'utilisation des hormones en élevage est apparue. Cette synthèse est destinée tout à la fois aux professionnels des filières concernées, aux scientifiques directement impliqués dans les différents domaines de recherche et de développement afférents et à un public de «décideurs» interagissant avec ces mêmes filières. Cette initiative en revient à l'Académie des sciences qui la publiera dans la collection des Rapports sur la science et la technologie (RST). Nous en présentons ici une version largement augmentée qui montre combien les recherches conduites depuis plus de quarante ans en la matière et les développements qui s'en sont suivis ont été à la fois importants, multiples, parfois inattendus.
 Les principales fonctions physiologiques d'intérêt zootechnique susceptibles d'être modulées artificiellement, les substances utilisées en pratique, les productions animales concernées sont décrites ci-après. Les éléments de l'appréciation du risque toxicologique lié à l'utilisation de ces substances et le contrôle de leur utilisation en élevage sont ensuite abordés. Enfin, de nouvelles méthodes permettant de contrôler certaines fonctions physiologiques ou d'en moduler l'expression sont brièvement présentées, qui préfigurent ce que pourrait être une zootechnie renouvelée à l'horizon 2020.
APA, Harvard, Vancouver, ISO, and other styles
34

Safar, Jihan. "Écrire l’esclavage au féminin : une étude du roman contemporain omanais." Esclavages & Post-esclavages 9 (2024). http://dx.doi.org/10.4000/11o9q.

Full text
Abstract:
Cet article traite de l’esclavage et du genre dans la fiction contemporaine omanaise écrite par des femmes. Face au vide historiographique et anthropologique sur l’esclavage légal dans la péninsule Arabique, la littérature nourrie par la mémoire permet d’aborder cette question. Elle rend visible des subjectivités d’esclavisé·es ou de leurs descendant·es absentes des récits dominants. Dépassant les polémiques sur l’usage de la production littéraire dans les sciences sociales, l’article considère la littérature comme un point d’entrée anthropologique, politique et économique apte à éclairer les situations concrètes de l’esclavage et du post-esclavage dans la société contemporaine omanaise. Il souligne tout particulièrement les tensions entre l’écriture mémorielle de l’esclavage et les positions de pouvoir et de genre des écrivaines. Il analyse ainsi une double subjectivité : celle des protagonistes femmes dans le roman et celle des romancières. Deux principaux romans omanais examinent l’esclavage dans la sphère intime et privée de la famille, du mariage et de la sexualité : Sayyidāt al Qamar (Les Corps célestes) de Jokha Alharthi et Al ashyā’ layssat fi amākiniha (Things are not in their place) de Huda Hamed (Al Jahouri). Le premier roman aborde frontalement l’esclavage et la traite omanaise qui s’étendait des côtes d’Afrique orientale jusqu’au Baloutchistan ; la concubine Zarifa étant l’un des principaux personnages. Le second roman raconte l’évitement matrimonial entre Amal, une baysara (métissée) et Mohsin, un « Arabe » issu d’une tribu « noble » et « pure ». Dans les deux romans, la question de la race, du genre et de l’origine généalogique s’inscrit au cœur des pratiques matrimoniales, sexuelles et familiales.L’article s’appuie sur une enquête de terrain menée au sultanat d’Oman en février 2023. Des entretiens en langue arabe ont été conduits avec les deux romancières Jokha Alharthi et Huda Hamed, afin de recueillir leurs discours et leurs perceptions sur le passé colonial, sur l’esclavage et son héritage, sur le rôle de la littérature, sur la réception de leur œuvre par le public local et international ainsi que sur les sources utilisées dans leur production littéraire. D’autres entretiens ont été menés avec des personnalités littéraires, académiques, et des représentants officiels.Dans la première partie de cet article, le roman contemporain est traité comme un matériau permettant de saisir les transformations sociétales dans le sultanat d’Oman en contexte d’esclavage et de post-esclavage, dans une perspective intersectionnelle. En premier lieu, cette partie met en lumière les multiples formes de domination au sein de l’institution du concubinage, soulignant la notion de propriété légale de l’esclave (milk) dans la loi musulmane. Elle montre le cycle de violences sexuelles exercées sur le corps de l’esclave-femme ainsi que les relations complexes entre maître et concubine où se mêlent abus, affection et domination. Elle témoigne aussi des relations prohibées entre la maîtresse et son esclave. Cette première partie indique également comment le roman permet d’évoquer les expériences de genre différenciées parmi les esclaves eux-mêmes, entre les esclaves né·es dans la maison du maître et les esclaves capturé·es qui se remémorent le « voyage ». Une telle distinction informe sur le sentiment d’appartenance à la nation : la loyauté nationale semble plus forte parmi les esclaves né·es dans la maison du maître, notamment les femmes, qu’au sein de la génération capturée, surtout masculine, bien plus rebelle. Le roman contemporain omanais donne l’opportunité, en troisième lieu, de décrire les pratiques post-esclavagistes au sein du mariage, un lieu de reproduction des hiérarchies sociales et raciales. Il évoque le thème des évitements matrimoniaux qui exprime des subjectivités féminines où s’entrecroisent race, genre et lignée. Prenant le cas des bayāsir (métissé.es), le roman omanais révèle que la discrimination ne relève pas de la couleur de peau mais de la généalogie. Si ces romans rendent visibles des trajectoires et des expériences d’esclavisé·es, le positionnement des romancières peut sembler paternaliste, les femmes noires étant souvent associées aux stéréotypes liés à la prostitution et à l’impossibilité pour elles de former une famille stable.La deuxième partie de l’article aborde les modes de narration, les positionnements des romancières omanaises, et la réception controversée de l’œuvre littéraire évoquant l’esclavage. Elle traite des subjectivités et des sources utilisées par les romancières. La place attribuée à l’histoire orale et aux archives dans la construction romanesque est centrale dans l’écriture féminine et mémorielle sur l’esclavage. Des subjectivités racialisées sont également évoquées. À l’inverse des black feminists afro-américaines qui ont écrit des neo-slave narratives, les romancières omanaises ne sont pas issues de communautés afro-arabes descendantes d’esclaves ; elles appartiennent à la classe dominante et « blanche ». Si ces romancières sont accusées de faire le jeu du colonialisme, on leur reproche également d’être son relais. Des attaques féroces ont fusé après l’attribution de prix littéraires (comme celui du Man Booker International Prize 2019 pour Sayyidāt al Qamar de Jokha Alharthi) et la traduction de leur œuvre. Pour les « conservateurs », ces romans montraient les Omanais sous l’angle des colonisateurs ou des esclavagistes. Ainsi, la traduction de ces œuvres a produit des discours locaux autour de l’esclavage et a soulevé de nombreuses polémiques à propos de la mémoire coloniale. Cette fictionnalité vient combler un silence institutionnel, les autorités évitant d’engager un débat national sur l’esclavage qui pourrait nuire à l’image internationale du pays. Au-delà d’un récit national homogène, la fiction contemporaine, essentiellement écrite par des femmes, permet donc de rendre visible l’esclavage dans la péninsule Arabique. Dépassant des visions sur l’esclavage oriental « doux » et « bienveillant », cet article cherche à inscrire celui-ci dans les études sur les histoires globales de l’esclavage.
APA, Harvard, Vancouver, ISO, and other styles
35

Doyon, Sabrina. "Environnement." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.007.

Full text
Abstract:
Le mot environnement est polysémique. Selon les contextes et les disciplines, on peut référer à l’environnement physique, naturel ou social. Il est parfois associé, à tort, aux notions d’écosystème et de ressources naturelles. Ces ambiguïtés sont intéressantes du point de vue de l’anthropologie, car elles révèlent la multitude de réalités auxquels le terme réfère ainsi que les divers usages et pratiques auxquels il est lié et, surtout, aux différentes façons dont il peut être pensé, imaginé, transformé, projeté et vécu selon les groupes sociaux et culturels. Depuis les années 1960, les préoccupations liées à l’environnement sont très présentes. Cette situation est à mettre en lien avec trois phénomènes : l’émergence des inquiétudes à l’égard de la contamination causée par l’industrialisation et envers la surexploitation de la nature qui sont sans cesse croissantes, l’avènement des mouvements écologistes et environnementalistes qui ont publicisé ces enjeux dans la société et l’institutionnalisation de l’environnement, notamment par la mise en place un peu partout dans le monde de ministères de l’Environnement, de politiques environnementales et de législations concernant l’usage de la nature. Tout en interrogeant les concepts de nature et de culture, plusieurs approches au sein de l’anthropologie questionnent l’environnement par l’étude des différents types de rapports qu’entretiennent les êtres humains avec ce qui les entoure, ce qui les supporte et les constitue. L’écologie culturelle de Steward (Steward 1955), l’approche écosystémique de Rappaport (1967), l’ethnoscience et l’ethnoécologie (Haudricourt 1956), l’œuvre d’anthropologie structurale de Lévi-Strauss, les travaux relatifs aux rapports à la nature, des vivants et des non-vivants (Ellen et Katsuyochi 1996; Descola 2005; Viveiros de Castro 2009), et ceux propres à la perception et à « l’habiter » (Ingold 2000) sont parmi les approches anthropologiques ayant fait de l’environnement et de la nature le centre de leur réflexion. Elles s’inscrivent à la fois dans les courants matérialistes et symboliques de l’anthropologie et dans les écoles anglo-saxonnes et françaises de l’étude des relations socio-environnementales. Ces catégorisations ne sont toutefois pas absolues : des chevauchements et des emprunts enrichissent aujourd’hui les réflexions de chacun. Depuis les années 1990, les recherches anthropologiques concernant les relations entre l’environnement et les êtres humains sont nombreuses, variées et croissantes; elles intègrent souvent des approches propres à d’autres disciplines, telles que la géographie, la sociologie, les sciences politiques et la philosophie, et combinent des recherches fondamentales et appliquées. L’écologie politique (political ecology : approche critique des changements environnementaux qui analyse les liens entre des enjeux écologiques et d’économie politique) est un exemple de courant théorique phare qui intègre ces disciplines et qui rallie de nombreux chercheurs en anthropologie (Bryant et Bailey 1997; Escobar 1996; Gauthier et Benjaminsen 2012; Biersack et Greensberg 2006; Peet, Robbins et Watts 2011). Les efforts de compréhension de la pluralité des modes d’interprétation, de représentation et d’incorporation de l’environnement se nourrissent aussi d’études en histoire environnementale et questionnent les perceptions et les constructions sociales de la nature. Les concepts de natures humanisées (issues d’aménagements ou de perturbations anthropiques) y sont mis en rapport avec ceux de natures « sauvages et primaires »; des remises en question des idéaux de la wilderness, évoqués dans la tradition anglo-saxonne (Cronon 1995; Balée 2006), en émergent, démontrant qu’une supposée nature originelle n’aurait jamais existé et que l’environnement est, au contraire, travaillé, médié, construit par des actions humaines depuis la présence des premières communautés humaines. Ces clarifications amenées par l’anthropologie s’ancrent dans des compréhensions de la nature organisées par des savoirs environnementaux locaux et autochtones (Menzies 2006) qui sont souvent discrédités par la science positiviste occidentale (Fairhead et Leach 2003). Ces recherches sont également alimentées par des réflexions récentes en sciences de l’environnement où le modèle homéostatique de la nature (dans lequel les écosystèmes, en tant que systèmes, tendraient vers un équilibre via des mécanismes de rétroaction régulateurs) est contesté, préférant des approches qui intègrent le chaos et l’incertitude (Scoones 1999). Dans tous les cas, ces recherches s’attachent à montrer que les divisions conceptuelles entre la nature et la culture, la société et l’environnement ne sont pas universelles et s’ancrent plutôt dans des constructions modernes (Latour 1991). Ces réflexions foisonnantes ne sont pas étrangères aux analyses anthropologiques des discours environnementaux qui s’intéressent notamment à la cristallisation de certaines formules, telles que : les forêts cathédrales, le développement durable, la désertification et les changements climatiques (Crate et Nuttall 2009; Redclift 1987; Sachs 1993) et à leurs portées sociale et culturelle. Plusieurs auteurs exposent ainsi les conséquences sociales et politico-économiques variées, tant locales qu’internationales, des discours globalisés sur l’environnement dont les enjeux, connotés de conceptions « occidentales » anthropocentristes du rapport à la nature, sont énoncés et répétés par un petit groupe d’experts lors de récurrentes « grandes messes » internationales que sont les Conventions cadre des Nations unies sur les changements climatiques, les Conventions sur la diversité biologique et les Sommets de la Terre. Ces nouveaux processus politiques par lesquels l’environnement est gouverné et contrôlé, nommé environnementalité (Agrawal 2005), constituent des phénomènes où la nature est conçue comme un espace propre à l’intervention du gouvernement. Les anthropologues s’intéressent à ces processus, ainsi qu’aux enjeux qui y sont discutés, comme la justice environnementale, les réfugiés climatiques et le racisme environnemental, des termes qui témoignent de l’intrication sociale, politique, économique et culturelle inhérente à la situation écologique mondiale actuelle. Des recherches examinent également les mécanismes de négociation des enjeux élaborés lors de ces évènements et les structures qui codifient les échanges permettant à certaines voix d’être entendues tandis que d’autres sont tues. Les discours environnementaux globalisés sont au cœur des mouvements de protection de la nature, engendrés tant par des organismes privés qu’étatiques, qui s’incarnent notamment dans la création, exponentielle depuis les années 1980, de parcs naturels, de réserves ou d’aires protégées (Adams et Hutton 2007; West, Igoe et Brockington 2006). La constitution de ces territoires n’est pas nouvelle : elle a ses racines dans la colonisation de l’Amérique du Nord, de l’Afrique et de l’Inde. Elles furent d’abord créées à l’initiative des colonisateurs qui voulurent protéger une nature « sauvage » idéalisée comme étant vierge et qu’ils « découvraient »; une nature dont le caractère inaltéré avait, selon eux, disparu en Europe. L’instauration de ces parcs se fit cependant au prix de l’expulsion des populations autochtones qui les occupaient (Igoe et Brockington 2007). Les études des rapports qu’entretiennent spécifiquement les populations autochtones avec l’environnement sont d’ailleurs très riches et nombreuses et constituent tout un champ de recherche (Colchester 2003[1994]). Les anthropologues étudient comment la création de ces aires protégées, en transformant des paysages en lieux de contemplation et de protection de la nature, contribue à transformer l’espace et les rapports sociaux. L’espace est d’ailleurs un concept de plus en plus utilisé en anthropologie dans l’examen des relations socio-environnementales. Ces espaces protégés sont aussi le lieu d’initiatives de patrimonialisation de la nature (Roigé et Frigolé 2010) qui ne sont pas sans soulever des questionnements critiques. Le développement du tourisme et de l’écotourisme dans ces espaces protégés (Duffy 2008, Stronza 2001) amènent, entre autres conséquences, une valorisation de certaines espèces « charismatiques » au détriment d’autres entités constituant les écosystèmes. L’exploitation de la nature par le truchement de systèmes de production mécanisés et industriels en agriculture, dans les pêches, la foresterie, l’exploitation minière et l’extraction des carburants fossiles est au cœur des préoccupations de l’anthropologie de l’environnement. Cette dernière questionne les modes d’appropriation de ces « ressources naturelles » en s’intéressant notamment aux préoccupations de l’éthique environnementale, des mouvements écologistes et environnementalistes (Peluso 1992; Latour 2004) ainsi que des autres mouvements sociaux, notamment anarchistes et féministes, qui s’insurgent contre des modèles de développement de l’environnement délétères, sexistes et iniques (Rocheleau, Thomas-Slayter et Wangari 1996). Ces préoccupations s’arriment à celles exprimées à l’égard des effets de la privatisation, de la marchandisation et de la re-régulation des dimensions fonctionnelles, symboliques, esthétiques et contemplatives de la nature et du vivant, ce que se propose d’étudier un nouveau courant anthropologique se penchant sur les processus de la « néolibéralisation » de l’environnement (Castree 2008; Igoe et Brockington 2007).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography