To see the other types of publications on this topic, follow the link: Travail à la chaîne – Qualité – Contrôle.

Journal articles on the topic 'Travail à la chaîne – Qualité – Contrôle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 journal articles for your research on the topic 'Travail à la chaîne – Qualité – Contrôle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Morin, Fernand. "L’approche dite « pragmatique et fonctionnelle » retenue à la Cour suprême du Canada!" Revue générale de droit 25, no. 1 (February 26, 2019): 95–111. http://dx.doi.org/10.7202/1056405ar.

Full text
Abstract:
Depuis l’arrêt Bibeault, la Cour suprême du Canada tente de circonscrire le champ de compétence des tribunaux spécialisés du travail à l’aide d’une grille d’analyse qu’elle qualifia de « pragmatique et fonctionnelle ». Aussi, cherchons-nous à savoir si cette démarche permet d’obtenir des résultats assez certains et suffisamment prévisibles pour que l’on puisse, du même coup, connaître ou reconnaître les réelles coordonnées de la réserve judiciaire à l’endroit des tribunaux spécialisés du travail. À ces fins, nous rappelons la définition de cette démarche qu’en donnèrent certains membres de la Cour suprême puis, l’application qu’ils en firent en quatre arrêts récents. Cette première partie permet par la suite d’effectuer une analyse critique de la démarche réellement retenue par ces mêmes juges. Il s’agit alors de savoir comment les usagers d’une même grille d’analyse et qui se veut pragmatique et fonctionnelle, aboutissent néanmoins à des dissidences, à des résultats divergents. On peut comprendre que le simple usage d’un même instrument ou moyen ne peut être une garantie de la qualité du résultat ni davantage, qu’il sera le même sans égard à l’instrumentiste. Outre la démarche suivie, ce qui importe avant tout et d’abord consiste à bien cerner la question. Cette dernière donne l’orientation générale, impose ses propres contraintes et conduit inéluctablement son auteur à un résultat qui lui est tributaire. Si cet énoncé répond d’une logique simple, il explique également qu’en ces arrêts les juges dissidents ne partagèrent pas la question retenue par leurs collègues de la majorité. Tout en empruntant la même démarche d’analyse pragmatique et fonctionnelle, on ne peut être surpris que leurs conclusions diffèrent. Puisque nous ne faisons pas de « psychologie judiciaire », nous évitons de tenter de savoir pourquoi ou comment ces juges posèrent respectivement autrement la question à laquelle ils croyaient devoir répondre. À tout le moins, on ne saurait être convaincu de la justesse d’une conclusion du tribunal de contrôle du simple fait de l’emploi de l’approche pragmatique et fonctionnelle. En chaque cas, il nous faut aussi analyser la qualité de la question choisie et la démarche suivie en chacune des étapes pour mieux apprécier ou jauger la conclusion finalement retenue.
APA, Harvard, Vancouver, ISO, and other styles
2

Leppänen, Anneli. "Improving the Mastery of Work and the Development of the Work Process in Paper Production." Relations industrielles 56, no. 3 (October 22, 2002): 579–609. http://dx.doi.org/10.7202/000083ar.

Full text
Abstract:
Résumé Les machines de fabrication du papier sont les plus grandes installations de production en continu au monde et la fabrication de la pâte, en tant que processus de travail, est particulièrement complexe. Le processus de fabrication du papier étant rapide, les conséquences des modifications apportées dans le premier temps de fabrication (partie humide de la machine), notamment au niveau de la concentration de la masse ou du réglage de la tête de la machine, n’apparaissent souvent que dans les paramètres de qualité du papier parvenus dans la « partie sèche » de la machine. Par conséquent, la fabrication du papier ne repose pas sur un ouvrier isolé, mais bien sur un groupe d’ouvriers. Tous ceux qui travaillent sur une machine et qui surveillent le processus au moyen des dispositifs informatiques du système de fonctionnement automatisé doivent émettre des hypothèses quant à l’état du processus et des actions à entreprendre. Ils doivent également communiquer aux autres membres du groupe leurs observations, leurs actions ou leurs décisions. Les retards sont fréquents et à l’occasion, il peut s’écouler plusieurs heures avant que les effets d’une modification dans les paramètres se manifestent. Les équipes doivent donc pouvoir compter sur des moyens efficaces pour se transmettre l’information et, conséquemment, avoir une même compréhension des concepts de la fabrication du papier. Les pratiques visant à créer et à améliorer les compétences professionnelles dans les moulins à papier ont beaucoup changé et plusieurs problèmes associés à des pratiques de formation inadéquates ont été constatés. Des programmes ont été élaborés dans le but de supporter l’amélioration de la maîtrise du processus de travail des ouvriers et de permettre le développement du processus de travail lui-même. Jusqu’à maintenant, la méthodologie a été appliquée sur environ 15 des 100 machines de fabrication du papier en Finlande. Les programmes de développement sont basés sur l’analyse des processus de production et du travail. L’analyse de ces processus nécessite la prise en compte des éléments de l’activité humaine au travail, des outils et de la division du travail. De plus, les modes d’action de l’équipe de travail dans différentes situations, la coopération des sujets à l’intérieur du processus de travail et des tâches y étant associées comme la maintenance ou le contrôle de la qualité sont également analysés. Pour y arriver, les chercheurs définissent des catégories ou identifient des questions clés en construisant des modèles. Ces catégories sont basées sur des analyses préliminaires du processus de travail de même que sur des entrevues et des observations avec le travailleur en activité. Lors de l’élaboration du programme, les participants doivent procéder à une analyse approfondie des processus de production et du travail. Les équipes doivent verbaliser et élaborer les différents modèles pouvant rendre compte de chacune des parties constituant le procédé de travail. Au cours de ce processus, les équipes apprennent à utiliser les connaissances disponibles dans le groupe. Les compétences et l’expertise du directeur de la production, de l’ingénieur des procédés de travail, des experts des procédés chimiques, des experts des systèmes de fonctionnement automatisé des opérations et des agents de marketing peuvent également être sollicitées. Quatre sessions de deux jours sont nécessaires pour élaborer le programme. Chaque session doit être tenue deux fois afin de permettre la participation des représentants de tous les quarts de travail de l’organisation. Les résultats des programmes de développement ont été évalués à plusieurs niveaux. La principale cible de ces programmes est d’améliorer la maîtrise conceptuelle du travail. Le premier niveau d’évaluation concerne l’apprentissage par la mesure de la maîtrise conceptuelle du travail et des perturbations possibles de même que le potentiel d’apprentissage que représentent les propositions de développement. Dans chaque programme de développement, plusieurs propositions de développement sont soulevées. Elles sont analysées en fonction des buts visés et du contenu du développement proposé. Les connexions entre la maîtrise objective et subjective du travail, à savoir l’évaluation que les ouvriers font de leur travail et le bien-être exprimé, et leur développement durant le programme ont aussi été étudiés. Ces connexions sont utilisées pour évaluer les conséquences du programme de développement sur les métacognitions traitant avec les facteurs des réactions subjectives, comme la satisfaction ou le stress au travail. Dans cet article, les résultats de deux études complémentaires concernant les programmes de développement sont abordés. Ils révèlent que la maîtrise conceptuelle du processus de fabrication du papier peut être considérablement améliorée à l’aide d’un programme de développement basé sur une analyse systématique et un modelage du processus de travail. Les résultats indiquent également que l’analyse du processus actuel de travail est un moyen adéquat pour favoriser son développement. En effet, dans chacune des études considérées, plus de cent propositions ont été formulées pour améliorer le processus de travail. Les propositions de développement portent autant sur le développement technique que sur la coopération entre les différents groupes de professionnels. Elles touchent donc le processus de travail en entier. De plus, elles représentent les besoins actuels de développement dans le processus de travail, en plus d’être des sources d’information importantes pour débuter des actions de développement. Les propositions de développement ont également été analysées du point de vue du potentiel d’apprentissage qu’elles représentent. La majorité des propositions visent essentiellement le développement du processus de production technique, c’est-à-dire une simple adaptation au contexte. De telles propositions représentent uniquement le niveau inférieur d’ap-prentissage. Cependant, les propositions visant à améliorer les modes d’action de l’équipe ou à augmenter la maîtrise cognitive du processus indiquent que les participants considèrent leur propre activité comme un objet de développement. Le besoin de comprendre le processus de travail et ses lois a clairement augmenté, démontrant ainsi une certaine augmentation de la motivation à travailler dans le nouveau contexte. Cette étude a également voulu vérifier si le bien-être au travail nécessite des caractéristiques de travail positives ainsi qu’une bonne maîtrise conceptuelle du processus de travail. Les rapports présumés ont émergé seulement à la suite du programme de développement. En effet, après le programme, un haut niveau de maîtrise des perturbations pouvant survenir en cours de production a été associé à la satisfaction. Dans l’analyse de régression, 72 % de la variance de la satisfaction au travail était expliquée par la maîtrise de ces perturbations de la production ainsi que par une évaluation positive du défi au travail et une attitude active face au développement du travail. Le programme de développement a semblé réorganiser les bases d’évaluation des sujets, spécialement en regard avec leurs qualifications actuelles et leurs évaluations subjectives. Les participants ont appris à évaluer les relations entre leurs propres compétences et les besoins découlant du processus de travail, indiquant ainsi que leur métacognitions du processus de travail se sont améliorées. L’émergence des connexions entre la maîtrise du processus de travail et la satisfaction suite au programme suggère que les qualifications professionnelles peuvent être une source de bien-être dans une organisation qui accorde de l’importance aux compétences et qui le démontre notamment par l’adoption continue du développement du processus de travail et de la maîtrise de ce processus en tant que caractéristique organisationnelle. Les résultats concernant les programmes de développement ou la formation au niveau organisationnel sont rares. La seconde étude considérée dans cet article se concentre sur les expériences de plusieurs fabricants de papier expérimentés devant maintenant travailler sur une nouvelle ligne de production compte tenu d’un déclin important de la productivité de la vieille ligne de production. Suite au programme, les ouvriers étant toujours affectés à la vieille ligne de production possédaient une maîtrise conceptuelle similaire à ceux qui ont été affectés à la nouvelle ligne de production et qui ont participé à une formation. De plus, la quantité et la qualité de la production sur la vieille ligne se sont grandement améliorée. De nos jours, la maîtrise du travail ou encore les connaissances reliées au travail sont considérées comme des préalables nécessaires au succès organisationnel. Les principes didactiques appliqués dans les programmes de développement sont devenus de plus en plus fréquents dans les pratiques de formation dans les écoles et dans les universités, mais elles sont encore rares dans les ateliers. L’application de ces principes devrait cependant supporter les organisations dans leur apprentissage par leurs propres activités.
APA, Harvard, Vancouver, ISO, and other styles
3

Couacy-Hymann, Emmanuel, Angeli Kodjo, M. Ouattara, K. Kanga, S. Diawara, and Joseph Domenech. "Le contrôle de qualité des vaccins et de la chaîne du froid lors des campagnes nationales de vaccination." Revue d’élevage et de médecine vétérinaire des pays tropicaux 45, no. 2 (February 1, 1992): 129–33. http://dx.doi.org/10.19182/remvt.8936.

Full text
Abstract:
Durant les deux campagnes de vaccination contre la peste bovine et la péripneumonie contagieuse bovine en 1989 et 1990, 507 échantillons de vaccin ont été prélevés tout le long de la chaîne de distribution qui va de la Pharmacie vétérinaire d'Abidjan au vaccinateur sur le terrain, afin de contrôler la qualité de la suspension vaccinale que reçoit l'animal. Parallèlement, la qualité de la chaîne du froid était vérifiée. Au total 463 titrages ont été réalisés. Aucun titre ne s'est révélé en dessous des normes de l'OIE/FAO, à savoir 10 puissance 2.5 DICT 50/ml pour la valence peste bovine et 10 puissance 7 germes viables/ml pour la valence péripneumonique.
APA, Harvard, Vancouver, ISO, and other styles
4

Lacornerie, T., V. Marchesi, and N. Reynaert. "Contrôle de qualité de la chaîne de préparation et de radiothérapie stéréotaxique extracrânienne. Incertitudes et marges." Cancer/Radiothérapie 18, no. 4 (July 2014): 258–63. http://dx.doi.org/10.1016/j.canrad.2014.06.001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Franssen, R., G. Moreas, and A. Van Schooten. "Contrôle de la qualité de surface des cylindres de travail au train a bandes de Sidmar." Revue de Métallurgie 94, no. 1 (January 1997): 85–94. http://dx.doi.org/10.1051/metal/199794010085.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Morin, Fernand. "Nouvelles technologies et la télésubordination du salarié." Relations industrielles 55, no. 4 (April 12, 2005): 725–45. http://dx.doi.org/10.7202/051355ar.

Full text
Abstract:
Les technologies d'information et de communication (TIC) permettent, incitent ou forcent les entreprises à modifier leurs processus de gestion et de contrôle. Par voie de conséquence, la relation de travail et les conditions d'exécution du travail en sont métamorphosées. Pouvons-nous affirmer que ces techniques nouvelles confèrent vraiment au salarié une plus grande autonomie professionnelle au-delà des premières apparences ? L'absence du regard indiscret d'un contremaître ou d'un directeur de service ne saurait suffire pour répondre à cette question puisque les TIC permettent de suivre le salarié comme s'ils 'agissait de son ombre. Dès lors, une deuxième question peut être valablement posée : ces TIC constitueraient-ils des nouveaux instruments d'asservissement ? La réponse peut dépendre aussi de la qualité des gestionnaires selon qu'ils savent utiliser ces données informatisées pour ce qu'elles sont et sans plus... En d'autres termes, les indicateurs de performance que procurent les TIC ne peuvent servir de substituts au jugement toujours essentiel du gestionnaire.
APA, Harvard, Vancouver, ISO, and other styles
7

Saint Robert, Marie-Josée de. "Écrire pour être traduit aux Nations Unies." FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 16, no. 1 (September 27, 2018): 7–24. http://dx.doi.org/10.1075/forum.00002.des.

Full text
Abstract:
Résumé Dans une institution où tout écrit officiel doit être traduit, un outil d’aide à la rédaction apparaît comme essentiel au bon fonctionnement de la chaîne de production documentaire. Un texte source dont les ambiguïtés involontaires (erreurs d’appellations officielles, d’acronymes ou dans les citations, non-emploi des termes officiels ou recommandés, fautes d’orthographe ou de syntaxe, phrases incomplètes, répétitions, etc.) seraient éliminées par son auteur grâce à l’assistance d’un outil expert relié aux banques de données terminologiques et textuelles officielles, permettrait d’obtenir un texte cible de qualité et concordant dans toutes les langues. Un tel logiciel d’aide à la rédaction servirait aussi d’aide à la traduction et à la compréhension des textes. L’objet de cette communication est de décrire l’organisation du travail de réécriture et de traduction mise en place à l’ONU, eu égard à sa politique linguistique et documentaire, et d’étudier les possibilités et les difficultés que présentent l’amélioration et l’uniformisation des textes source au moyen de l’informatique.
APA, Harvard, Vancouver, ISO, and other styles
8

Martin, G., A. Collignon, and J. Charpentier. "Réduction et contrôle du foisonnement filamenteux des boues activées par application d'un régime turbulent." Revue des sciences de l'eau 4, no. 2 (April 12, 2005): 169–83. http://dx.doi.org/10.7202/705095ar.

Full text
Abstract:
Le foisonnement filamenteux des boues activées est un problème important dans les stations d'épuration du type Boues Activées, car il peut entraîner des pertes de biomasse avec l'eau épurée. Les techniques de lutte utilisées actuellement sont, soit des techniques dites « biologiques » (sélecteurs), soit des techniques chimiques (floculants, biocides). L'objectif de notre travail a été la mise au point d'un procédé original basé sur la création d'une zone de turbulence pour casser les réseaux filamenteux. La réduction et le contrôle du bulking sont obtenus par passage (de durée limitée T1) de la biomasse dans un système venturi, équipée d'une prise d'air. L'efficacité du procédé dépend principalement de la turbulence due à l'auto-aspiration d'air au niveau du rétrécissement du venturi. Cette turbulence contribue d'une part au mécanisme de « cisaillement » des filaments, et d'autre part à la qualité de l'effluent sortant. Une gestion adaptée (aération séquentielle en procédé à faible charge) permet d'obtenir, outre une amélioration de la décantation, une amélioration de l'élimination de l'azote. De plus, le contrôle de la biomasse optimise l'élimination de la pollution carbonée.
APA, Harvard, Vancouver, ISO, and other styles
9

Pandard, P., and P. Vasseur. "Biocapteurs pour le contrôle de la toxicité des eaux : application des bioélectrodes algales." Revue des sciences de l'eau 5, no. 3 (April 12, 2005): 445–61. http://dx.doi.org/10.7202/705141ar.

Full text
Abstract:
L'amélioration de la qualité de l'environnement passe par la réalisation de contrôles de toxicité in situ et en continu des sources de pollution ou des milieux contaminés, à l'aide de systèmes automatisés à réponse rapide. Les systèmes donnant une réponse en temps réel permettent d'intervenir immédiatement à la source, d'interrompre le rejet d'un flux toxique et de prévenir ainsi les accidents de pollution. Ce type de stratégie ne peut être développé qu'au moyen de biocapteurs : les méthodes d'essais conventionnelles n'autorisent que des contrôles de toxicité épisodiques, en laboratoire, effectués dans des conditions statiques quelque peu éloignées des conditions dynamiques. Nous nous sommes intéressés à la mesure de l'activité photosynthétique d'algues unicellulaires immobilisées. La photosynthèse induite par des stimuli lumineux est en effet un processus dont la réponse est immédiate et aisément mesurable à l'aide de transducteurs électrochimiques. Il apparaît donc intéressant d'utiliser ces réactions photosynthétiques pour la détection des polluants. Deux dispositifs mesurant l'activité photosynthétique d'algues unicellulaires ont été testés. Le premier dispositif mesure le transfert d'électrons le long de la chaîne photosynthétique lors d'une illumination des micro-organismes. Le second système permet de quantifier la production d'oxygène résultant de cette excitation lumineuse. La mesure du transfert d'électrons photosynthétiques nécessite l'addition d'une substance oxydo-réductible (médiateur) dans le milieu pour capter ces électrons. De la série de médiateurs testés, seuls les dérivés à caractère lipophile (2,6-diméthylbenzoquinone et p-benzoquinone) ont permis de mesurer un transfert d'électrons. Toutefois la durée de vie de ce biocapteur s'est révélée limitée à moins de 24 heures, ce qui exclut toute utilisation en continu. Le second dispositif développé présente en revanche une longévité d'une semaine, ce qui le rend intéressant en vue d'une utilisation in situ. Les performances de ce capteur à oxygène ont été testées sur des produits de type herbicides, cyanures, métaux et comparées aux valeurs obtenues à l'aide de tests algues classiques ou de méthodes de détection rapide de la toxicité.
APA, Harvard, Vancouver, ISO, and other styles
10

Choi, Jungwha, and Hyang-Ok Lim. "An Overview of the Korean Translation Market." Meta 45, no. 2 (October 2, 2002): 383–92. http://dx.doi.org/10.7202/002235ar.

Full text
Abstract:
Résumé Cet article a pour objectif de passer en revue le marché coréen de la traduction. La première partie étudie la traduction à la pige en se concentrant sur la Korean Society of Conference Interpretation.On traite des conditions de travail, des tarifs de traduction en vigueur et des problèmes qui en découlent. On explique également ce phénomène unique à la Corée qu'est la « draft translation ». La deuxième partie examine le marché des traducteurs salariés. La dernière partie, quant à elle, divise le marché en catégories en s'appuyant sur les divers types de textes. On ne tient pas compte des textes littéraires, car les cabinets ont principalement à travailler sur des textes techniques et le contrôle de la qualité est relativement sévère. Un autre type de texte pour lequel il y a un marché est le matériel audio-visuel. Finalement, sont émises des recommandations sur la façon de corriger la situation dans quelques domaines.
APA, Harvard, Vancouver, ISO, and other styles
11

Gond, Valéry, and Stéphane Guitet. "Elaboration d'un diagnostic post-exploitation par télédétection spatiale pour la gestion des forêts de Guyane." BOIS & FORETS DES TROPIQUES 299, no. 299 (March 1, 2009): 5. http://dx.doi.org/10.19182/bft2009.299.a20423.

Full text
Abstract:
Cette étude s'inscrit dans le cadre du suivi de l'exploitation forestière à faible impact en forêt tropicale humide. L'importance des dégâts liés à l'exploitation forestière conditionne fortement la durabilité de cette activité et un contrôle efficace de la qualité des travaux forestiers s'impose donc au gestionnaire. Dans cette étude, l'imagerie satellitaire aide à suivre la progression des chantiers d'exploitation et à estimer les dégâts, par l'acquisition d'images en cours et en fin d'exploitation des parcelles. L'analyse d'images à haute résolution (10 m) permet de bien identifier les trouées d'abattage et certaines pistes de débusquage. Ainsi, on a une évaluation de l'ouverture de la canopée. Plusieurs parcelles ont été étudiées en Guyane française. Pour chacune d'entre elles, un diagnostic simple a été mis en place pour évaluer l'intensité d'exploitation, relever les pistes créées et les pertes de bois. L'outil satellite permet alors de mieux considérer la qualité de l'exploitation et d'en tirer les conséquences vis-à-vis de l'exploitant. Cette étude a permis de démontrer l'utilité de la télédétection pour identifier les concentrations de dégâts après exploitation forestière. Une validation de l'outil a été menée grâce à une base de données de suivi d'exploitation et par des missions de terrain. Cet outil de contrôle postexploitation peut désormais s'automatiser de façon à le rendre totalement opérationnel pour le gestionnaire forestier. (Résumé d'auteur)
APA, Harvard, Vancouver, ISO, and other styles
12

AUROUSSEAU, B. "Les radicaux libres dans l’organisme des animaux d’élevage : conséquences sur la reproduction, la physiologie et la qualité de leurs produits." INRAE Productions Animales 15, no. 1 (February 12, 2002): 67–82. http://dx.doi.org/10.20870/productions-animales.2002.15.1.3688.

Full text
Abstract:
Les phénomènes radicalaires sont omniprésents dans la vie des animaux domestiques. Les radicaux libres oxygénés en sont à l’origine : leur structure électronique déséquilibrée leur confère une grande réactivité sur les constituants tissulaires qui leur permet d’entrer en jeu dans le contrôle d’une grande variété de réactions d’oxydo-réduction indispensables à la vie et à la croissance. Ils sont formés de façon continue dans l’organisme sain, en particulier par fuite d’électrons à partir de la chaîne respiratoire et au cours de l’élimination des composés tissulaires peroxydés. Les stress de toutes natures augmentent leur flux, épuisent les réserves de l’organisme en composés protecteurs qui les capturent (en particulier les vitamines et le glutathion) et augmentent donc les besoins correspondants des animaux. Pour finir, ils peuvent conduire à l’altération des structures cellulaires. Les conséquences intéressent une grande variété de fonctions animales, de façon directe (immédiatement après une série de chocs) ou indirecte (affaiblissement à long terme de l’organisme). Les attaques radicalaires peuvent ainsi conduire à une diminution du pouvoir fécondant des spermatozoïdes, à une baisse de la fertilité des femelles, à des mortalités embryonnaires et à une baisse de la vitalité des nouveau-nés. Par ailleurs, elles peuvent ralentir la croissance des animaux et conduire à l’obtention de carcasses et de viandes de qualités inférieures au potentiel des animaux. Ces baisses de qualité sont caractérisées par une durée de conservation plus courte et par une diminution de la teneur des tissus en composés intéressants pour la santé de l’homme. Le plus grand soin doit donc être apporté à la conduite des animaux d’élevage, afin de respecter l’équilibre entre l’attaque et la défense de l’organisme des animaux domestiques. Documents à télécharger
APA, Harvard, Vancouver, ISO, and other styles
13

Bastien, Robert, and Jean-François Laé. "La famille et l'instruction, la pauvreté et l'hygiène publique sous l'oeil de l'histoire." Service social 57, no. 2 (October 21, 2011): 113–28. http://dx.doi.org/10.7202/1006299ar.

Full text
Abstract:
L’hygiène publique et l’instruction publique sont des entrées par lesquelles on peut voir la place qu’occupent la famille, et particulièrement les familles pauvres, dans la société du XIXe et du XXe siècle. L’exploitation d’un fonds d’archives de la Commission scolaire de Montréal (CSDM3), matière première de cet article, ouvre plusieurs voies. Ce fonds met en lumière les dispositifs d’inspection de tous les membres de l’école, les problèmes qui menacent la santé et la réussite scolaire des jeunes élèves, ainsi que les dispositifs de gestion et de contrôle que l’école et l’hygiénisme mettent en place. On y voit se déployer la « propagande hygiéniste » sur plusieurs niveaux, dans les manuels scolaires, mais aussi par une lutte acharnée pour contrer l’ignorance des familles. Manifestement, la famille est perçue comme un frein, les mères pauvres en particulier, tant elles bloquent la chaîne des opérations de l’hygiénisme. Le rôle de l’État libéral est examiné, sinon critiqué pour son laisser-aller. La science, la technique, le clergé et la morale forment un tout unifié sous une même volonté d’industrialisation : produire des hommes et des femmes en bonne santé, dociles et aptes à répondre aux exigences du monde du travail. Pour l’étude du rôle des familles dans le dessein de l’éducation et de la santé des enfants d’aujourd’hui, le détour par le passé s’impose pour connaître cette histoire qui continue d’agir.
APA, Harvard, Vancouver, ISO, and other styles
14

Laflamme, Lucie. "Age-Related Injuries among Male and Female Assembly Workers: A Study in the Swedish Automobile Industry." Articles 52, no. 3 (April 12, 2005): 608–19. http://dx.doi.org/10.7202/051188ar.

Full text
Abstract:
Cette étude tente d'apprécier dans quelle mesure il y a trace d'altération de la capacité de travail liée à l'âge, dans la fréquence relative des lésions du travail et dans leur type chez les travailleurs masculins et féminins de l'industrie automobile suédoise. Cette occupation a été retenue plus particulièrement à cause de deux caractéristiques associées à un appauvrissement de la capacité de travail et de la performance avec l'âge: le contrôle de la cadence est déterminé par la chaîne pour plusieurs tâches d'assemblage et l'organisation du travail est rigide. Une étude rétrospective des lésions professionnelles subies par les assembleurs masculins et féminins de l'industrie automobile suédoise et s'échelonnant sur dix ans (1980-1990) a été menée, utilisant cinq catégories d'âges divisées en strates de dix ans et trois périodes de référence (1980-81, 1985-86, 1990-91). Des ratios de lésions (RL) par groupe d'âges ont été calculés tous types d'accident confondus et par type d'accident (efforts excessifs, chutes et trébuchages, lésions par contact). Pour une période donnée, un ratio de lésions (RL) pour un groupe d'âges donné est le rapport entre la proportion de lésions associées au groupe sur la proportion de travailleurs inclus dans le groupe. Un ration supérieur à 1.0 indique que le pourcentage de lésions est supérieur au pourcentage de travailleurs. Inversement, un ratio supérieur à 1.0 indique que la proportion d'accidents excède celle des travailleurs. Les RLs pour les assembleurs les plus âgés (55 à 65 ans) se sont avérés généralement faibles (inférieurs à 1.0), sans toujours être les plus faibles, tous types d'accident confondus et pour chaque type d'accident. Chez les assembleurs les plus jeunes cependant, les RLs étaient tous élevés (supérieurs à 1.0), pour chaque type d'accident, chaque période et pour les travailleurs masculins tout autant que féminins. L'étude n'offre aucun support à l'idée qu'il puisse y avoir trace d'altération de la capacité de travail liée à l'âge dans le risque relatif de lésion (tous types d'accident confondus et par type d'accident), tant chez les travailleurs masculins que féminins. L'inégalité d'exposition et la sortie précoce de l'emploi sont invoquées comme facteurs explicatifs de ces résultats. L'auteure soutient qu'il n'est cependant pas exclu que le vieillissement de cette population de travailleurs s'accompagne d'un changement quantitatif ou qualitatif du risque de lésion encouru par les assembleurs âgés, à plus ou moins brève échéance.
APA, Harvard, Vancouver, ISO, and other styles
15

Boodhoo, K., C. Lisette, and S. J. Santchurn. "Transformation artisanale de la viande de porc à Rodrigues : pratiques de fabrication et qualité des produits." Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, no. 3 (June 30, 2015): 103. http://dx.doi.org/10.19182/remvt.10161.

Full text
Abstract:
L’île Rodrigues est connue pour ses produits traditionnels fabriqués à base de porc. Cependant, et contrairement à la production agricole y compris l’élevage porcin (1, 2, 3), le secteur de la transformation de la viande porcine a été peu étudié. Cette étude a été menée pour préciser les caractéris­tiques du secteur de la transformation de la viande de porc, notamment les profils socio-économiques des transforma­teurs, les types de produits fabriqués, les matières premières, ingrédients et additifs utilisés, les techniques et matériel de fabrication, ainsi que les modes de stockage et de condi­tionnement des produits finis. Une évaluation du niveau de conformité des unités de fabrication a également été effec­tuée au regard de la réglementation mauricienne sur l’hygiène alimentaire.Une enquête auprès de tous les transformateurs de porc recensés (n = 57) a été réalisée de décembre 2010 à janvier 2011 à l’aide d’un questionnaire et d’une liste de contrôle. Excepté pour deux unités semi-industrielles, le secteur est constitué de petites unités de fabrication de charcuterie, opérant majoritairement à temps partiel (96 p.100), et gérées principalement par des hommes (65 p.100). Les principaux produits fabriqués sont la saucisse chinoise, le jambon rodriguais et le boudin noir (figure 1). Le kitouz, le boucané, le rôti de porc, le porc salé, la galantine, la saucisse créole et le bacon rodriguais sont également produits mais surtout pour des occasions festives. Les techniques de fabri­cation les plus utilisées sont le salage et le séchage, la cuisson n’étant employée que pour certains produits, comme le rôti de porc et le boudin noir. La viande de porc provient d’élevages locaux, alors que les ingrédients comme les épices, le sel et le sucre sont importés de l’île Maurice.Tous les artisans charcutiers recensés (n = 57) fabriquaient leurs produits dans la cuisine familiale à l’aide de matériel de faible coût, et en adoptant une technologie rudimentaire et empirique, et des recettes traditionnelles. La plupart des transformateurs ne suivaient pas les codes de bonnes pratiques de fabrication et étaient bien en-deçà des normes d’hygiène requises par la réglementation mauricienne. Quatre-vingts pour cent d’entre eux n’avaient pas de système de contrôle de leur procédé de fabrication. Ainsi, par exemple dans la fabrication des sau­cisses chinoises, le degré de hachage de la viande pouvait varier d’un hachage grossier à très fin. Les quantités d’ingré­dients étaient mesurées de façon approximative en utilisant des cuillères et des tasses. Parmi ces artisans, 88 p.100 n’éti­quetaient pas leurs produits après l’emballage. Par ailleurs, en début de la chaîne de fabrication, l’abattage du porc s’effec­tuait souvent dans des conditions insalubres augmentant ainsi les risques de contamination microbiologiques de la carcasse. La plupart des artisans (95 p.100) stockait la viande fraîche à température ambiante, favorisant ainsi la multiplication des germes. Pour ces diverses raisons, les produits finis étaient clai­rement hétérogènes au niveau des dimensions, de la teneur en gras, de la couleur, de l’aspect général et de la durée de conservation.En conclusion, les fabricants devront mettre en oeuvre les bonnes pratiques de fabrication et d’hygiène de base, afin d’assurer une qualité standard des produits finis et d’améliorer leur qualité sanitaire. Une étude ultérieure sera réalisée pour mieux définir la qualité microbiologique des produits.
APA, Harvard, Vancouver, ISO, and other styles
16

Sotomayor, O. A. Z., S. W. Park, and C. Garcia. "Modèle de référence pour évaluer différentes stratégies de contrôle dans des usines de traitement des eaux usées." Revue des sciences de l'eau 15, no. 2 (April 12, 2005): 543–56. http://dx.doi.org/10.7202/705468ar.

Full text
Abstract:
Dans la majorité des pays, il existe des lois strictes pour réglementer la qualité de l'eau provenant des systèmes de traitement d'eaux usées. Ces spécifications légales sont essentiellement influencées par des questions telles que la santé publique, l'environnement et les facteurs économiques. Les objectifs fondamentaux des procédés de traitement des eaux usées sont d'atteindre, avec l'utilisation d'énergie et à des coûts opérationnels minimaux, une concentration de matière biodégradable et de nutriments suffisamment basse dans les effluents et une production minimale de boues. Les systèmes de traitement des eaux usées sont de grandes dimensions et complexes. Ils sont aussi sujets à des variations importantes dans le flux d'entrée et dans la composition de l'eau à l'entrée, qui ne sont pas bien connues. Le procédé est multivariable, avec beaucoup de couplages croisés et nonlinéarités importantes. La dynamique dépend de la variabilité des flux d'entrée et de la complexité des phénomènes physico-chimiques et biochimiques. Le comportement dynamique démontre une énorme variation de temps de réponse (de quelques minutes jusqu'à plusieurs jours). Ces problèmes, combinés aux objectifs les plus importants du traitement des eaux usées, donnent lieu à une demande de techniques de commande avancées, qui peuvent conduire à une réduction du volume à traiter, une diminution importante dans l'utilisation des produits chimiques, et une possibilité d'économie d'énergie et une diminution des coûts d'opération. Dans ce travail, un " benchmark " (modèle de référence) d'un système complet de traitement des eaux usées a été développé, pour évaluer, à partir de simulations, la performance des différentes stratégies de commande proposées, y compris les techniques de respirométrie ("respirometry"). Ce travail s'aparente au Programme Européen d'Action COST (COST 624), et au projet "Respirometry in Control of the Activated Sludge Process (IWA Respirometry Task Group"). Le "Benchmark" représente un procédé de prédénitrification de la boue activée pour éliminer la matière organique et l'azote des effluents domestiques. Le simulateur est basé sur des modèles largement acceptés par la communauté internationale et il a été implanté dans un environnement Matlab/Simulink. La topologie du système et le développement complet du simulateur sont présentés dans ce travail. L'effet des conditions initiales et des caractéristiques du flux d'entrée (valeurs moyennes) sont analysés, aussi bien qu'un test en boucle ouverte. Les stratégies suivantes ont été sélectionnées en guise d'illustration de l'application de la commande automatique dans le "benchmark" (seulement avec commande proportionnel-intégral monovariable): commande basée sur la concentration d'oxygène dissous ("DO concentration-based control"), commande par respirométrie (commande par biomasse active et commande par taux de respiration bactérienne), et commande par concentration de nitrate (commande par dosage externe de carbone et recyclage du flux interne). Le "benchmark" est continuellement mis a jour et sa prochaine version va incorporer des fonctions d'optimisation en temps réel (on line) pour le procédé.
APA, Harvard, Vancouver, ISO, and other styles
17

Chicha, Marie-Thérèse. "La participation des travailleuses à la formation en entreprise et l'accès à l'égalité." Articles 50, no. 1 (April 12, 2005): 147–63. http://dx.doi.org/10.7202/050995ar.

Full text
Abstract:
Alors que la médiation la plus souvent utilisée survient dans le cadre de la négociation d'une première convention collective ou d'un renouvellement de convention, des programmes de médiation préventive tels celui des relations par objectifs (RPO) se situent en dehors du contexte de la négociation collective. Après avoir séparer les sujets d'ordre distributif des sujets de relations, les seules différences demeurant entre les parties sont celles des questions de fond. Cet article évalue 24 programmes de RPO menés par la Education Relations Commission d'Ontario entre 1981 et 1991. Nous avons utilisé une méthodologie combinée, quantitative et qualitative, pour mesurer l'impact général des RPO sur les conflits en milieu de travail et pour fournir quelques raisons de leurs échecs. L'approche générale des RPO est de réunir des représentants clefs de l'employeur et du syndicat dans un séminaire de deux ou trois jours dirigé par des animateurs qualifiés, en dehors des heures de travail et pendant une année de non-négociation. Les parties tentent alors d'identifier les problèmes qui affectent leurs relations, développant des plans spécifiques d'action, désignant des responsabilités pour leur implantation. Les parties établissent en outre un processus et un échéancier pour mesurer les progrès réalisés dans l'implantation des différents engagements contenus au plan d'action. Plusieurs résultats positifs sont attribuables aux RPO : une réduction du nombre de griefs, moins d'arbitrages et de grèves sauvages, des ententes rapides et faciles pour le renouvellement de la convention collective et une amélioration générale dans les relations du travail. Cependant, les recherches visant mesurer la part des RPO dans l'atteinte de ces résultats sont non concluantes. Même lorsque des démarches raisonnables ont été prises pour inclure des mesures pré- et post-RPO, des moyens inadéquats furent retenus pour contrôler des facteurs tels les différences entre industries, entre tailles d'organisation, entre durée et qualité des relations, entre types de syndicat et entre régions. De plus, on a fait aucun effort pour inclure un groupe contrôle. Pour compenser cela, nous avons comparé les résultats moyens de conflits des 24 conseils de RPO, avant et après les RPO, avec le résultat moyen de conflits dans les secteurs de l'éducation. Nous avons construit un groupe contrôle à partir de commissions scolaires qui n'ont pas eu recours à l'approche RPO et qui ressemblaient le plus au groupe qui a expérimenté les RPO. Les membres du groupe contrôle ont été jumelés selon les résultats de conflits (incluant la médiation des griefs, les arbitrages de griefs, les plaintes pour négociation de mauvaise foi, les votes de grèves, l'arbitrage volontaire des différends, les grèves, les lock-out et les avertissements au gouvernement que l'année scolaire peut être compromise), le niveau scolaire (secondaire ou élémentaire), la région géographique (rurale ou urbaine) et l'année de négociation. Notre analyse inclut une courte période (trois conventions) et une longue période (toutes les conventions) avant et après l'expérience RPO pour le groupe RPO et pour le groupe contrôle. Il y a certaines preuves de l'effet à court terme pour les programmes RPO vu que les résultats des conflits après l'expérience RPO reviennent au même niveau que la moyenne avant l'expérience RPO pour le groupe RPO. Les commissions scolaires de notre groupe contrôle n'ont pas connu une croissance similaire. Cependant, les RPO semblent efficaces pour réduire les conflits si on mesure le temps pour atteindre une entente et le nombre d'arbitrages de griefs portant sur des questions de langue. Nos résultats confirment l'utilisation des RPO comme moyen de réduire à court et à long termes le niveau global de conflits dans 16 des 24 cas. Pour les huit autres cas, on note un certain nombre de circonstances faisant en sorte que les RPO sont peu ou pas du tout efficaces : les commissions scolaires élémentaires et secondaires sont fusionnées, les RPO sont utilisés à titre préventif dans l'anticipation de problèmes à venir, l'économie locale ne suit pas l'économie provinciale, une approche dure en relations du travail, l'absence de véritables processus de décisions, le fait de forcer des gens qui ne le veulent pas à participer aux programmes de RPO, les querelles sur les questions de langue. Finalement, nous concluons qu'une évaluation des RPO comme technique de résolution de conflits requiert une approche combinée quantitative et qualitative.
APA, Harvard, Vancouver, ISO, and other styles
18

Lamy, Laurent. "LA TRANSLATION DES RESTES :." Belas Infiéis 4, no. 1 (August 19, 2015): 111–58. http://dx.doi.org/10.26512/belasinfieis.v4.n1.2015.11316.

Full text
Abstract:
Cet article présente la brève introduction et le premier chapitre d’un travail en chantier qui porte sur la chaîne de transmission du corpus aristotélicien à la faveur d’un réseau très ramifié de traductions du grec vers le pehlvi, le syriaque, l’arabe et le latin. Cette intervention vise à démonter et à rectifier quantité de distorsions délibérément induites par l’ouvrage d’un historien qui, sous couvert d’une entreprise à prétention scientifique, n’est qu’un brûlot pamphlétaire destiné à discréditer et à réduire à une « peau de chagrin » l’apport indéniable, avéré par une masse critique concluante de résultats obtenus par les chercheurs les plus chevronnés, de la culture savante arabo-musulmane qui a connu son apogée et s’est maintenue avec vigueur et constance comme source créatrice du VIIIe au XIVe siècle de notre ère. La « pièce à conviction » de ce procès avorté, qui est mise en évidence de façon quasi anecdotique dans la structure de l’ouvrage, est un agrégat assez mince de traductions du corpus aristotélicien effectuées directement du grec et exécutées avec divers degrés de félicité par les soins d’un clerc et canoniste d’expression latine, Jacques de Venise, qui aurait séjourné, rien de sûr, à l’Abbaye du Mont Saint-Michel au milieu du XIIe siècle. Sur cette base passablement friable l’A. infère que seule la culture judéo-chrétienne latine européenne peut être désignée comme l’héritière légitime du legs imposant de la culture grecque et hellénistique. Compte tenu de l’ampleur de ce chantier et de la qualité des équipes de chercheurs à pied d’oeuvre autour du legs arabo-musulman médiéval, cette insinuation est tout à fait aberrante. Dans la partie du travail ici présentée je fais simplement état du parti frauduleux que l’on peut tirer d’un appareil de références tronqué, hautement sélectif et conçu ad hoc pour masquer, voire oblitérer les sources les plus éloquentes et les plus pertinentes. Ce genre de manoeuvre porte atteinte à l’ethos qui ne peut manquer de gouverner toute recherche scientifique digne de ce nom. Il nous incombait donc de pulvériser cette chimère.
APA, Harvard, Vancouver, ISO, and other styles
19

Randriamparany, Tantely, Tommaso Petregnani, René Rabenarivahiny, Peter Fenozara, and Antonio Barbario. "Dépistage de la tuberculose bovine chez les vaches laitières dans le district d’Antanifotsy, Madagascar." Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, no. 3 (June 30, 2015): 126. http://dx.doi.org/10.19182/remvt.10183.

Full text
Abstract:
Avec cinq litres par habitant et par an, la consommation de produits laitiers à Madagascar reste faible. Toutefois, diverses campagnes de communication sont actuellement menées pour inciter la population à consommer davantage de produits laitiers et pour motiver les producteurs à améliorer la qualité du lait et les quantités produites (3). La majeure partie de la production nationale (90 p. 100) provient de la zone du triangle laitier situé sur les hauts plateaux de Madagascar dans les régions d’Antsi­rabe, d’Antananarivo et de Tsiroanomandidy.Toutefois, l’état sanitaire du cheptel laitier reste peu documenté et les maladies zoonotiques telles que la tuberculose demeurent négligées. La tuberculose bovine est une maladie animale chro­nique due à la bactérie Mycobacterium bovis. Elle peut être contractée par l’homme par voie aérienne ou par la consomma­tion de lait cru provenant de vaches infectées (1).En l’absence de données sanitaires récentes sur le niveau d’in­fection des cheptels laitiers par M. bovis et afin d’élaborer des stratégies de contrôle, une étude épidémiologique a été réalisée dans 15 communes (Fokontany) du district d’Antanifotsy dans la région du Vakinankaratra.Un dépistage a été effectué sur 429 vaches laitières par intra­dermo-tuberculination selon la méthode recommandée par l’Organisation mondiale de la santé animale (2) pour la détec­tion de la tuberculose bovine. Une dose de 0,1 ml (2 000 UI) de tuberculine bovine a été injectée par voie intradermique au niveau du cou de la vache. Lorsque la réaction est positive, un épaississement du pli de la peau est observé après 48 heures. La réaction est considérée comme négative quand le gonflement de la peau mesure moins de 2 mm avec un cutimètre. Elle est douteuse si aucun signe clinique n’est observé et si l’augmenta­tion de l’épaississement du pli de la peau mesure plus de 2 mm et moins de 4 mm. En revanche, Elle est positive si des signes cliniques sont observés ou s’il y a une augmentation de 4 mm ou plus de l’épaisseur du pli de la peau.Le diagnostic a été douteux pour seulement quatre vaches (0,9 p. 100) après la deuxième lecture (tableau I). Les 425 autres tests ont été négatifs.Alors qu’une très petite quantité du lait produit dans le district d’Antanifotsy est transformée localement, la grande majorité est collectée, souvent mélangée avec des laits d’origine inconnue, et acheminée vers la capitale. Sans traçabilité ni contrôle sanitaire le long de la chaîne de commercialisation, les laits crus vendus sur les marchés finaux présentent un risque de contamination pour les consommateurs et, même si nos résultats indiquent une faible prévalence de la tuberculose dans la population bovine laitière d’Antanifotsy, la pasteurisation du lait produit à Madagascar reste donc nécessaire.
APA, Harvard, Vancouver, ISO, and other styles
20

Pringuey, D. "SPCDN – Une phénoménologie de la rencontre en psychiatrie." European Psychiatry 29, S3 (November 2014): 584. http://dx.doi.org/10.1016/j.eurpsy.2014.09.293.

Full text
Abstract:
Les progrès de la technique dans notre discipline redoublent l’exigence d’une attention soutenue dans l’usage de nos outils thérapeutiques, ce qui requiert une reprise attentive des aspects relationnels de la prise en charge. L’évidence clinique, les enquêtes formelles et la demande de formation des plus jeunes en attestent. Il est dès lors souhaitable de revoir sur le terrain le fonds du talent thérapeutique depuis la clinique psychiatrique et d’illustrer la nécessité d’une phénoménologie de la rencontre comme condition nécessaire à l’ajustement interpersonnel créatif de toute relation de soin. Bruno Giordana envisage de montrer comment toute rencontre se fonde sur la catégorie du sentir et en quoi son rapport au fond de la vie en vue d’une co-constitution d’un « nous » étaye les notions d’alliance et de partenariat. Si la rencontre dispose de ressorts biopsychosociaux souvent perfectionnés pour faire œuvre commune de compréhension et de projet, Frédéric Jover se propose d’explorer son urgence dans la crise de l’entre-deux qui marque parfois violemment les contours d’une fabrique de l’identité, en quoi l’impératif d’une décision existentielle marque un tournant biographique qu’il faut savoir accompagner. L’accueil institutionnel s’opère désormais sous l’aspect moderne du contrôle « Qualité » mais Dominique Pringuey veut reprendre utilement le principe originaire de « permissivité » thérapeutique faisant valoir que tout procédé thérapeutique tient dans ce qu’il permet du travail relationnel qui inscrit l’hospitalisation dans l’ordre de l’hospitalité. Nous conforterons la thèse selon laquelle la rencontre porte en elle la dynamique de la puissance vitale seule capable de s’opposer aux forces de destruction, de soutenir l’échange et la parole, d’accompagner le souci et de promouvoir le rétablissement.
APA, Harvard, Vancouver, ISO, and other styles
21

Aparicio-Valdez, Luis. "La gestion empresarial en latinoamérica y su impacto en las relaciones laborales." Articles 44, no. 1 (April 12, 2005): 124–48. http://dx.doi.org/10.7202/050476ar.

Full text
Abstract:
Les relations du travail en Amérique Latine se caractérisent par la présence traditionnelle d'un autoritarisme étatique qui se manifeste par une intervention continuelle, une législation abondante et parfois contradictoire, ainsi que par un conflit permanent. Tout cela dans un cadre social hétérogène dans lequel les relations du travail ont depuis peu cesse d'être atomisé pour se centraliser dans les branches industrielles. Ces caractéristiques normalisent toujours les relations du travail en Amérique Latine, mais leur poids diminue chaque fois que de nouveaux facteurs, tant internes qu'externes, entrent en jeu. Les nouvelles tendances, encore embryonnaires, amplifient le caractère extra juridique de la relation employeur-travailleur, de même que l'autonomie des acteurs immédiats en relations du travail, ainsi que la faible présence d'une optique coopérative et participative. La gestion patronale a joué un rôle principal dans cette évolution, particulièrement dans les domaines nouveaux, là où l'absence de tradition a facilité l'innovation. Les multinationales et le secteur d'exportations non traditionnel constituent les meilleurs exemples. Ce résumé a pour objet de présenter ces nouvelles tendances, d'identifier les facteurs internes et externes qui les ont générés, ainsi que d'offrir une base de comparaison pour faciliter une évolution globale de l'état des relations du travail au niveau international. Facteurs internes : La gestion patronale actuelle en Amérique Latine montre qu'il y a une crise complexe chez les protagonistes des relations du travail, c'est-à-dire les travailleurs, les employeurs et l'État. D'un cote, l'augmentation inusitée des grèves locales et nationales, le caractère « illégal » de la majorité des grèves locales dues à l'échec de la négociation collective, ou encore, leur emploi comme outil de solution des conflits, et enfin, l'importante complexité des demandes constituent les principaux problèmes. La source immédiate de ceux-ci est syndicale, alors que les causes plus profondes se rencontrent, pour la majorité, en dehors du contrôle des acteurs. À cause de cette distanciation, les relations se polarisent chaque fois plus. Les relations du travail doivent ainsi en venir à se rencontrer devant un tiers, l'État, qui lui aussi, devient chaque fois plus décisif. De l'autre cote, le maintien, l'accroissement ou le changement fréquent des lois du travail ainsi que la partialité des gouvernements en place soit avec les employeurs ou les travailleurs, reflètent la continuité ou l'augmentation de l'interventionnisme étatique dans la détérioration des relations entre les parties. Les réajustements périodiques des salaires selon les changements au cout de la vie dus à l'inflation, par exemple, exigent des employeurs qu'ils réajustent subséquemment leurs politiques salariales et leurs couts divers. Les changements dans la législation imposent une adaptation de la part des employeurs. En général, l'important interventionnisme étatique ainsi que le réglementarisme limitent de manière irrationnelle le mouvement autonome des relations du travail. Cependant, autant les employeurs que les travailleurs ont exercé, ces dernières années, une force extraordinaire tendant à changer, en leur faveur, le schéma et les règles qui gouvernent les relations du travail. Tous deux ont influencé le processus politique afin de limiter le déterminisme étatique dans les deux secteurs de la propriété, publique et privée, mais aussi dans le but de forcer la réconciliation avec leur acteur rival et ceci, en accord avec la logique de leurs propres intérêts. Le solde net de ce changement a été une relative ouverture du système traditionnel des relations du travail vers des formes nouvelles de relations, comme le système d'administration des ressources humaines, la concertation sociale, la négociation par branche industrielle et la transformation du régime du travail dans le secteur public, particulièrement dans les entreprises de l'État. Facteurs externes : La crise économique que vivent pratiquement tous les pays de cette région, l'accroissement disproportionne de l'offre de travail et de ses accompagnateurs naturels comme le chômage et le travail au noir, l'intervention excessive de l'État dans l'économie, de même que son centralisme, et le défi de la concurrence internationale basé sur l'internationalisation des facteurs de production sont les changements contextuels qui ont eu un impact majeur dans les relations du travail en Amérique Latine. Ceux-ci ont exercé une influence variable aussi bien sur les facteurs internes mentionnes plus haut que sur les relations du travail elles-mêmes, de façon directe. La gestion patronale a répondu à ces divers facteurs avec une grande variété de critères et d'actions. Une des réponses a été l'adoption de systèmes d'administration du personnel en remplacement du système de relations du travail. Même si cette pratique est naissante, son développement rapide, et ceci dans les secteurs les pins modernes et les plus rentables (les multinationales en constituent l'avant-garde), lui a concédée une importance majeure ces dernières années. Le système d'administration des ressources humaines est un concept radicalement différent de celui du système traditionnel des relations du travail. Alors que le premier est centre sur la relation individuelle employeur-travailleur, le second l'est sur la relation collective employeur-syndicat. L'expérience latino-américaine montre que la tendance actuelle va vers la superposition des systèmes. Les entreprises qui furent organisées sous le système traditionnel de relations du travail continuent dans cette direction, alors que les nouvelles entreprises, particulièrement celles qui participent aux secteurs les plus modernes de l'économie, ont l'option d'essayer un ou l'autre des systèmes, ou encore l'intégration des deux. Dans le cas où le système de l'administration des ressources humaines est adopte, le raisonnement logique est de donner fréquemment des avantages non économiques aux travailleurs, afin qu'ils ne voient pas la nécessité de recourir à la syndicalisation, ou encore, dans le but de diminuer les sources de conflit. Trois types de stratégies ont été pratiques dans divers pays : a) la création d'associations professionnelles dans le champ des ressources humaines et de l'administration du personnel, avec pour objectif d'améliorer le recrutement et la promotion dans l'emploi; b) la création et le développement de mécanismes destines à motiver les travailleurs, comme les cercles de qualité, les comités mixtes travailleurs-direction de l'entreprise et les programmes d'incitation non pécuniaires; c) l'ouverture d'alternatives participatives, aussi bien dans la gestion (cogestion, cogouvernement ou codétermination), que dans les bénéfices et la propriété de l'entreprise. Cette dernière stratégie a généralement été exécutée dans des conditions de faible stabilité du travail et de faible influence de la négociation collective. La motivation du travailleur a été le centre d'attention de divers programmes crées sous l'initiative de l'employeur. Les cercles de qualité sont les plus répandus en Amérique Latine, mais des comités de productivité, des programmes de préretraite et des clubs sociaux à l'intérieur de l'entreprise ont aussi été formes. En quelques mots, l'adoption du système d'administration des ressources humaines, même si elle est récente, est déjà une réalité en Amérique Latine. Le développement et l'établissement général de ces programmes sont ici plus que de simples souhaits des acteurs sociaux. On pourrait dire qu'il leur reste à traverser le même niveau de difficultés que le développement économique des pays latino-américains.
APA, Harvard, Vancouver, ISO, and other styles
22

Ouedraogo, Salfo, Jules Yoda, Tata Kadiatou Traore, Mathieu Nitiema, Bavouma C. Sombie, Hermine Zime Diawara, Josias B. G. Yameogo, et al. "Production de matières premières et fabrication des médicaments à base de plantes médicinales." International Journal of Biological and Chemical Sciences 15, no. 2 (June 23, 2021): 750–72. http://dx.doi.org/10.4314/ijbcs.v15i2.28.

Full text
Abstract:
Les plantes constituent un réservoir pour les pharmacopées du monde. Plusieurs médicaments importants sont fabriqués à partir des substances actives d’origine végétales. En outre de nombreux médicaments modernes ont été fabriqués à partir de ces matières premières. Les plantes médicinales sont utilisées directement sous forme fraîche, sèche ou transformée, stabilisée, ou extrait ou formulée avec d’autres plantes ou excipients de synthèse. Dans tous les cas, la matière végétale utilisée pour fabriquer la forme posologique doit faire preuve de son efficacité, son innocuité et être de qualité conforme aux exigences de la Pharmacopée Européenne pour les phytomédicaments, garantissant ainsi sa sécurité d’emploi. Pour ce faire, l’Organisation Mondiale de la Santé (OMS) a mis à la disposition des états membres des guides et standards permettant d’harmoniser et de sécuriser leur utilisation. Ainsi de nombreux pays africains ont adopté ces outils après des modifications appropriées pour faire progresser la recherche et le développement (R&D) de médicaments à base de plante. Le but de ce travail était de faire une synthèse des différentes étapes de production, de contrôle qualité et de standardisation des matières premières issues des plantes médicinales et des médicaments à base de plantes médicinales.Mots clés : Pharmacopée, médicaments, médecine traditionnelle, sécurité d’emploi, phytomédicaments. English title: Production of raw materials and manufacturing of drugs from medicinal plants Plants are a reservoir for the world's pharmacopoeias. Several important medicines are made from active substances of plant origin. In addition, many modern medicines have been made from these raw materials. Medicinal plants are used directly in fresh, dry or processed, stabilized, or extracted form or formulated with other plants or synthetic excipients. In all cases, the herbal material used to manufacture the dosage form must demonstrate its efficacy, safety and be of a quality that meets the requirements of the European Pharmacopoeia for phytomedicines, thus ensuring its safe use. To this end, the World Health Organization (WHO) has made available to Member States guides and standards to harmonize and secure their use. Thus, many African countries have adopted these tools after appropriate modifications to advance research and development (R&D) of plant-based drugs. The aim of this work was to make a synthesis of the different stages of production, quality control and standardization of raw materials from medicinal plants and herbal medicines.Keywords: Pharmacopoeia, drugs, traditional medicine, safe use, phytomedicines.
APA, Harvard, Vancouver, ISO, and other styles
23

Silva, Gabriella Menezes Freitas, Gil Dutra Furtado, Bianca Miranda Amorim, José Andreey Almeida Teles, Marcos Antônio Jerônimo Costa, and Felipe Eduardo da Silva Sobral. "CONTROLE DE LA POPULATION DE CHIENS DANS LA MUNICIPALITE DE JOAO PESSOA (BRÉSIL) PENDANT LES QUATRE ANS DE 2015 A 2018." ENVIRONMENTAL SMOKE 2, no. 1 (May 7, 2019): 79. http://dx.doi.org/10.32435/envsmoke.20192179.

Full text
Abstract:
La castration est un outil puissant dans la recherche de la qualité de vie des animaux domestiques, en particulier chez les animaux de compagnie pour cesser définitivement les modifications comportementales et hormonales liées aux fonctions physiologiques de la reproduction, en plus de contribuer directement pour la réduction de la dissémination des zoonoses par le contrôle de la population. Parmi les chiens, l'intervention chirurgicale chez les femelles, affecte directement la réduction du risque de développer des néoplasies, principalement des carcinomes mammaires et élimine la survenue d'infections utérines, déjà chez les mâles, cette procédure contribue à réduire la frustration les rapports sexuels par la réduction de la libido, ainsi que l'anxiété générée lors de la recherche de partenaires pour la reproduction, minimisent également l'incidence des problèmes de la prostate et empêchent le développement de carcinomes testiculaires. Le centre de surveillance de l'environnement et des zoonoses de la municipalité de João Pessoa (Brésil), en charge d'un rôle très important en ce sens, effectue des castrations de chiens et de chats en ville et à partir de ce travail, a été utilisé une méthodologie de recherche documentaire dans des documents spécifiques de l’organisme public et avec ceux-ci effectuant des évaluations statistiques dans les données collectées. Il a été constaté qu'entre 2015 et 2018, 1517 castrations ont été effectuées sur des chiens des deux sexes, avec une croissance de 177 animaux castrés en 2015 pour 660 animaux en 2018, et présentant une moyenne de 379 animaux par an, un résultat qui présente 0,05% de signification et démontre l’importance que cette action a eu pour la ville. L'action élective, avec l'action d'un médicament vétérinaire de prévention de l'intervention chirurgicale dans l'appareil reproducteur, montre une action bénéfique qui procure une action sanitaire souhaitée par la communauté en général. Il est conclu que la castration est méthodologiquement présentée comme une technique sûre pour améliorer le bien-être des animaux domestiques, tout en contribuant à la prévention de la multiplication indésirable des animaux domestiques et, par conséquent, à la dissémination des zoonoses.
APA, Harvard, Vancouver, ISO, and other styles
24

NYS, Y. "Préface." INRAE Productions Animales 23, no. 2 (April 10, 2011): 107–10. http://dx.doi.org/10.20870/productions-animales.2010.23.2.3292.

Full text
Abstract:
A la question «Qui de l’oeuf ou de la poule est né le premier ?» Silésius répondait «l’oeuf est dans la poule et la poule dans l’oeuf» soulignant sa dualité, le passage du deux en un. Dans l’imagerie populaire, l’oeuf reflète le tout et son contraire, fragilité, protection, épargne, abondance (être «plein comme un oeuf»), richesse («avoir pondu ses oeufs»), éternité (le Phénix est né de l’oeuf) mais aussi mort et destruction («casser ses oeufs» se dit d’une fausse couche). Dans la mythologie de nombreuses civilisations, l’oeuf est le symbole de la naissance du monde (Apollon, le dieu grec de la lumière est né de l’oeuf). L’oeuf décoré apparu 3000 ans avant J.-C. en Ukraine fête, au printemps, le retour de la fécondité de la nature ; l’oeuf de Pâques la résurrection du Christ. L’oeuf est un tout à condition d’en sortir ! Fragile cependant car selon La Fontaine briser l’oeuf de la poule aux oeufs d’or (par curiosité) rompt l’effet magique (Auer et Streff 1999). Pour l’Homme, l’oeuf séduit pour sa valeur nutritionnelle, sa diversité d’utilisation en cuisine et son prix modique. Il en existe une grande diversité, de l’oeuf de Colibri (0,5 g) à l’oeuf de l’Aepyornis (8 litres soit l’équivalent de 150 oeufs), un oiseau de Madagascar (500 kg) disparu au 18ème siècle. Mais l’Homme ne consomme que l’oeuf de caille, de poule ou de cane. L’ère moderne a considérablement intensifié la production de ces deux dernières espèces car les poules saisonnées, qui étaient élevées avec soin par la fermière, ont plus que doublé leur production en 60 ans (de 120 oeufs par an dans les années 50 à plus de 300 aujourd’hui). Cette révolution technique résulte des efforts conjugués de la sélection génétique, d’une alimentation raisonnée répondant aux besoins nutritionnels, d’une évolution du système de production (apparition des cages) et d’une meilleure connaissance de la pathologie aviaire. Qu’en est-il du contrôle de la qualité nutritionnelle, organoleptique, technologique et hygiénique de l’oeuf ? L’oeuf est la plus large cellule reproductrice en biologie animale. Il assure dans un milieu externe le développement et la protection d’un embryon dans une enceinte fermée matérialisée par la coquille. Aussi, une de ses particularités est la diversité de ses constituants, de leur parfait équilibre nutritionnel et leur forte digestibilité, qui assure la croissance d’un être vivant. Ces caractéristiques sont à l’origine de la qualité nutritionnelle exceptionnelle de l’oeuf pour l’Homme. Une autre particularité est la présence d’une protection physique, la coquille mais, aussi d’un système complexe de défenses chimiques. Aussi, ce produit est-il remarquable de par son aptitude à engendrer la vie et pour l’oeuf de table à se conserver. Outre les éléments nutritifs, on y trouve de multiples molécules participant au développement et à la protection de l’embryon (molécules antibactériennes, antivirales, antioxydantes). Certaines d’entre elles, comme par exemple le lysozyme de blanc d’oeuf, sont partiellement valorisées par différents secteurs industriels (agroalimentaire, cosmétique, santé animale/humaine). La révélation récente d’un grand nombre de nouveaux constituants de l’oeuf, suite au séquençage génomique de la poule et au développement de la biologie intégrative, a conforté l’existence d‘activités antimicrobiennes, anti-adhésives, immuno-modulatrices, hypertensives, anticancéreuses, antiinflammatoires ou cryoprotectrices, prometteuses en médecine humaine et devrait à terme enrichir le potentiel d’utilisation de ce produit en agroalimentaire et en santé. L’objet de ce numéro spécial d’INRA Productions Animales est de rassembler les principales informations qui ont contribué au développement économique récent de ce produit, de rappeler les efforts en génétique, élevage et nutrition qui ont assuré des progrès quantitatifs et qualitatifs remarquables de la production et de la qualité des oeufs au cours des trente dernières années. Les poules élevées à l’origine par la femme pour un usage domestique se comptent aujourd’hui par milliers dans les élevages. Quelle sera la durabilité de ce système d’élevage dans un contexte socio-économique européen remettant en cause en 2012 le système éprouvé de production conventionnel d’oeufs en cage pour des cages aménagées ou des systèmes alternatifs avec ou sans parcours ? Notre objectif est d’analyser les facteurs qui contribueront à son maintien, notamment le contrôle de la qualité de l’oeuf. Il est aussi de décrire l’évolution spectaculaire des connaissances sur ce produit liée au développement des techniques à haut débit et des outils d’analyse des séquences moléculaires. Il permettra enfin d’actualiser les atouts de ce produit. Ce numéro est complémentaire d’un ouvrage plus exhaustif sur la production et la qualité de l’oeuf (Nau et al 2010). Le premier article de P. Magdelaine souligne la croissance considérable en 20 ans de la production d’oeufs dans les pays d’Asie et d’Amérique du Sud (× 4 pour la Chine, × 2 en Inde et au Mexique). En revanche, les pays très développés notamment européens à forte consommation (> 150 oeufs/hab) ont stabilisé leur production malgré une évolution importante de la part des ovoproduits mais aussi de leurs systèmes de production. La consommation des protéines animales entre pays est tout aussi hétérogène puisque le ratio protéines de l’oeuf / protéines du lait varie de 0,4 au USA, à 0,9 en France et 2,7 en Chine ! Le doublement de la production mondiale d’oeufs en 20 ans n’a été possible que grâce à des progrès techniques considérables. La sélection génétique a renforcé les gains de productivité (+ 40 oeufs pour une année de production et réduction de l’indice de consommation de 15% en 20 ans !). L’article de C. Beaumont et al décrit cette évolution, la prise en compte croissante de nouveaux critères de qualité technologique, nutritionnelle ou sanitaire. Ces auteurs soulignent les apports des nouvelles technologies, marqueurs moléculaires et cartes génétiques sur les méthodes de sélection. Ils dressent un bilan actualisé des apports et du potentiel de cette évolution récente en sélection. Le séquençage génomique et le développement de la génomique fonctionnelle est aussi à l’origine d’une vraie révolution des connaissances sur les constituants de l’oeuf comme le démontre l’article de J. Gautron et al. Le nombre de protéines identifiées dans l’oeuf a été multiplié par plus de dix fois et devrait dans un avenir proche permettre la caractérisation fonctionnelle de nombreuses molécules. Il donne aussi de nouveaux moyens pour prospecter les mécanismes d’élaboration de ce produit. Un exemple de l’apport de ces nouvelles technologies est illustré par l’article de Y. Nys et al sur les propriétés et la formation de la coquille. Des progrès considérables sur la compréhension de l’élaboration de cette structure minérale sophistiquée ont été réalisés suite à l’identification des constituants organiques de la coquille puis de l’analyse de leur fonction potentielle élucidée grâce à la disponibilité des séquences des gènes et protéines associés. La mise en place de collaborations internationales associant de nombreuses disciplines, (microscopie électronique, biochimie, cristallographie, mécanique des matériaux) a démontré le rôle de ces protéines dans le processus de minéralisation et du contrôle de la texture de la coquille et de ses propriétés mécaniques. Cette progression des connaissances a permis de mieux comprendre l’origine de la dégradation de la solidité de la coquille observée chez les poules en fin d’année de production. La physiologie de la poule est responsable d’évolution importante de la qualité de l’oeuf. Aussi, l’article de A. Travel et al rappelle l’importance d’effets négatifs de l’âge de la poule contre lequel nous disposons de peu de moyens. Cet article résume également les principales données, souvent anciennes, concernant l’influence importante des programmes lumineux ou de la mue pour améliorer la qualité de l’oeuf. Enfin, il souligne l’importance de l’exposition des poules à de hautes températures ambiantes sur leur physiologie et la qualité de l’oeuf. Le troisième facteur indispensable à l’expression du potentiel génétique des poules, et déterminant de la qualité technologique et nutritionnelle de l’oeuf, est la nutrition de la poule. Elle représente plus de 60% du coût de production. L’article de I. Bouvarel et al fait le point sur l’influence de la concentration énergétique de l’aliment, de l’apport en protéines et acides aminés, acides gras et minéraux sur le poids de l’oeuf, la proportion de blanc et de jaune ou sa composition notamment pour obtenir des oeufs enrichis en nutriments d’intérêt en nutrition humaine. Cependant, la préoccupation principale des éleveurs depuis une dizaine d’année est la mise en place en 2012 de nouveaux systèmes de production d’oeufs pour assurer une meilleure prise en compte du bien-être animal. L’article de S. Mallet et al traite de l’impact des systèmes alternatifs sur la qualité hygiénique de l’oeuf. Ces auteurs concluent positivement sur l’introduction de ces nouveaux systèmes pour la qualité hygiénique de l’oeuf une fois que les difficultés associées aux méconnaissances d’un nouveau système de production seront résolues. La qualité sanitaire de l’oeuf est la préoccupation majeure des consommateurs et un accident sanitaire a des conséquences considérables sur la consommation d’oeufs. L’article de F. Baron et S. Jan résume d’une manière exhaustive l’ensemble des éléments déterminants de la qualité microbiologique de l’oeuf et des ovoproduits : mode de contamination, développement des bactéries dans les compartiments de l’oeuf, défenses chimiques du blanc et moyens pour contrôler la contamination des oeufs et des ovoproduits. Le consommateur ne souhaite pas, à juste titre, ingérer d’éventuels contaminants chimiques présents dans ses aliments. L’article de C. Jondreville et al analyse ce risque associé à la consommation des oeufs. Il est exceptionnel de détecter la présence de polluants organiques au seuil toléré par la législation. Les auteurs insistent notamment sur l’importance de contrôler la consommation par les animaux élevés en plein air de sols qui peuvent être une source de contaminants. Une caractéristique de l’évolution de la production d’oeufs est le développement des ovoproduits qui répondent parfaitement à l’usage et à la sécurité sanitaire exigée en restauration collective. L’article de M. Anton et al décrit le processus d’obtention et l’intérêt des fractions d’oeufs du fait de leurs propriétés technologiques (pouvoirs moussant, foisonnant, gélifiant ou émulsifiant). Les différents processus de séparation, de décontamination et de stabilisation sont analysés pour leur effet sur la qualité du produit final. Enfin le dernier article de ce numéro spécial de F. Nau et al se devait d’aborder la principale qualité de l’oeuf qui conditionne son usage : la qualité nutritionnelle de ce produit pour l’Homme. Cet article actualise l’information dans ce domaine et fait le point sur les atouts nutritionnels en tentant de corriger de fausses idées. L’oeuf présente un intérêt nutritionnel du fait de la diversité et l’équilibre de ces constituants pour l’Homme mais mériterait plus d’études pour mieux évaluer son potentiel réel. En conclusion, l’oeuf est la source de protéines animales ayant la meilleure valeur nutritionnelle, la moins chère, facile d’emploi et possédant de nombreuses propriétés techno-fonctionnelles valorisées en cuisine. Dans les pays développés, l’oeuf a souffert jusqu’à aujourd’hui d’une image entachée par plusieurs éléments négatifs aux yeux des consommateurs : sa richesse en cholestérol, le risque sanitaire associé à sa consommation sous forme crue ou son système de production en cage. L’évolution des connaissances sur le risque cardio-vasculaire, les progrès réalisés sur le contrôle sanitaire des Salmonelloses en Europe et la modification radicale des systèmes de production d’oeufs devraient modifier positivement son image. La consommation de protéines de l’oeuf a augmenté de plus de 25% en 20 ans (2,53 g/personne/j vs 4,3 g pour le lait en 2005) et poursuivra sa croissance rapide notamment dans les pays en développementoù sa consommation par habitant reste faible. Cette évolution considérable de la production de ce produit devrait être mieux intégrée dans les formations des écoles spécialisées en productions animales. L’oeuf restera dans l’avenir une des sources de protéines animales dominantes et l’acquisition de connaissances sur la fonction des nombreux constituants récemment mis à jour devait renforcer son intérêt pour la santé de l’Homme. Je ne voudrais pas terminer cette préface sans remercier au nom des auteurs, Jean-Marc Perez, le responsable de la revue INRA Productions Animales, d’avoir pris l'initiative de la publication de ce numéro spécial dédié à l'oeuf et d’avoir amélioré par plusieurs lectures attentives la qualité finale des textes. Je voudrais aussi adresser mes remerciements à sa collaboratrice Danièle Caste pour le soin apporté dans la finition de ce document. Enfin, je n'oublie pas le travail d'évaluation critique des projets d'article par les différents lecteursarbitres que je tiens à remercier ici collectivement. Auer M., Streff J., 1999. Histoires d’oeufs. Idées et Calendes, Neuchatel, Suisse, 261p.Nau F., Guérin-Dubiard C., Baron F., Thapon J.L., 2010. Science et technologie de l’oeuf et des ovoproduits, Editions Tec et Doc Lavoisier, Paris, France, vol 1, 361p., vol 2, 552p.
APA, Harvard, Vancouver, ISO, and other styles
25

Dussault, Gilles. "The Future of Professional Monopolies." Articles 40, no. 2 (April 12, 2005): 324–39. http://dx.doi.org/10.7202/050136ar.

Full text
Abstract:
Cet article est une analyse sociologique de la position des professions, plus précisément des occupations dont les membres ont le monopole de la production de certains biens et services, comme les médecins, les dentistes, les avocats, les comptables et les ingénieurs, dans la division sociale du travail. Depuis plus d'un siècle, ces professions ont occupe une position avantageuse qui leur a permis de contrôler les activités des autres occupations qui offrent des services dans le même secteur de production et ont jouit de privilèges qui ont été refuses aux autres producteurs. Par exemple, elles ont obtenu, pour leurs membres, un monopole légal de l'exercice de certaines activités; on leur a aussi permis d'empêcher la compétition entre leurs membres par des mécanismes comme l'établissement de grilles tarifaires et l'interdiction de la publicité. En s'inspirant de la littérature récente sur l'émergence du professionnalisme dans les sociétés occidentales, l'auteur fait valoir que la capacité des professions de conserver leurs privilèges monopolistiques et leur position dominante dans la division du travail est associée au support qu'elles reçoivent de quatre sources: de l'intérieur, d'associations fortes et crédibles, et de l'extérieur, de leur clientèle, de groupes sociaux et d'institutions influents, et de l'État de qui leurs privilèges de monopole émanent. Selon l'auteur, le support venant de chacune de ces sources s'est affaibli récemment et est susceptible de continuer à s'affaiblir si certaines tendances observées se maintiennent. D'abord, les professions sont moins homogènes et plus segmentées depuis une ou deux décennies; la croissance de leurs effectifs s'est accélérée au point de créer des surplus dans certains cas; l'origine sociale de leurs membres s'est diversifiée; les femmes et les salaries sont plus nombreux parmi eux. Des associations représentant des sous-groupes aux intérêts souvent conflictuels se partagent maintenant l'allégeance des professionnels et leurs divergences réduisent l'influence et l'efficacité des professions comme groupes de pression. Les changements techniques, en particulier ceux qui sont issus des développements de la micro-électronique et de ses applications, accroissent l'information directement accessible aux profanes et sont ainsi susceptibles de réduire l'écart qui les sépare des experts que sont les professionnels. Mieux informes et devenus plus critiques avec la montée du consumérisme, les clients des professionnels ne leur accordent plus leur loyauté et leur support aussi aisément qu'auparavant. Enfin le support de groupes et institutions comme les universités, les compagnies d'assurance ou les partis politiques ainsi que celui de l'État est plus difficile à conserver, compte tenu de la compétition que subissent les professions, de la part de leurs subordonnes, à ce niveau. En effet, de nombreux groupes comme les infirmier(e)s, les hygiénistes dentaires, et d'autres qui jusqu'ici s'étaient contenté d'un statut auxiliaire, cherchent de plus en plus à devenir autonomes et indépendants des professions traditionnelles. Ils font valoir la qualité de leur formation ainsi que les économies que représenterait l'élargissement de leur champ de responsabilité aux dépens de celui des professionnels: dans un contexte de faible croissance économique, ce genre d'argument est bien reçu par les consommateurs et les gouvernements. Ceci n'implique pas pour autant que les monopoles professionnels sont en voie de disparition. Cependant, les groupes qui jouissent de privilèges monopolistiques devront dorénavant faire la démonstration claire que ces privilèges servent les intérêts du public, s'ils espèrent les conserver. Ces privilèges ont été obtenus à une époque, celle des débuts de l'industrialisation, où l'éducation n'était accessible qu'à une minorité, où l'État n'était pas présent dans les secteurs occupes par les professions et où il y avait peu de groupes organises pour faire compétition aux professions. À l'aube de la révolution informationnelle, il reste à voir si le professionnalisme pourra survivre dans la forme qui a été la sienne depuis le milieu du XIXe siècle.
APA, Harvard, Vancouver, ISO, and other styles
26

GUY, G., and L. FORTUN-LAMOTHE. "Avant-propos." INRAE Productions Animales 26, no. 5 (December 19, 2013): 387–90. http://dx.doi.org/10.20870/productions-animales.2013.26.5.3167.

Full text
Abstract:
Ce numéro de la revue INRA Productions Animales contient un dossier consacré aux dernières avancées de la recherche sur le foie gras. En effet, la démocratisation de la consommation de ce produit haut de gamme a été permise notamment par les efforts de recherche et développement sur l’élevage des palmipèdes à foie gras et la maîtrise de la qualité du produit. Ce dossier est l’occasion de faire en préalable quelques rappels sur cette belle histoire ! Un peu d’histoire La pratique du gavage est une tradition très ancienne, originaire d’Egypte, dont les traces remontent à 2 500 avant JC. Elle avait pour objectif d’exploiter la capacité de certains oiseaux à constituer des réserves énergétiques importantes en un temps court pour disposer d’un aliment très riche. Si les basreliefs datant de l’ancien empire égyptien attestent de la pratique du gavage, il n’existe pas de preuves que les égyptiens consommaient le foie gras ou s’ils recherchaient la viande et la graisse. Ces preuves sont apparues pour la première fois dans l’empire romain. Les romains gavaient les animaux avec des figues et pour eux le foie constituait le morceau de choix. Le nom de jecur ficatum, signifiant « foie d’un animal gavé aux figues », est ainsi à l’origine du mot foie en français. La production de foie gras s’est développée dans le Sud-ouest et l’Est de la France aux XVIIe et XVIIIe siècles avec le développement de la culture du maïs. Le foie gras est aujourd’hui un met inscrit au patrimoine culturel et gastronomique français (article L. 654-27-1 du code rural défini par la Loi d’Orientation Agricole de 2006). Le contexte de la production de foie gras Avec près de 72% de la production mondiale en 2012, la France détient le quasi monopole de la production de foie gras. Les autres pays ayant des productions significatives sont la Hongrie et la Bulgarie en Europe Centrale, avec environ 10% pour chacun de ces pays, mais aussi l’Espagne avec 3% de la production. L’Amérique du nord et la Chine représentent les deux autres pôles de production les plus significatifs, mais avec moins de 2% du marché. La production française a connu un essor considérable, sans doute le plus important de toutes les productions agricoles, passant de 5 880 tonnes en 1990 à plus de 19 000 tonnes en 2012. A l’origine, le foie gras était principalement obtenu par gavage des oies, longtemps considérées comme l’animal emblématique de cette production. Aujourd’hui, le canard mulard, hybride d’un mâle de Barbarie (Cairina Moschata) et d’une cane commune (Anas Platyrhynchos), est plus prisé (97% des palmipèdes gavés en France). En France, l’oie a vu de ce fait sa part relative pour la production de foie gras diminuer, et c’est la Hongrie qui contrôle 65% de la production mondiale de foie gras d’oie. Toutefois, cette espèce ne représente que 10% de la production mondiale. La France est également le principal pays consommateur de foie gras avec 71% du total, l’Espagne se classant au second rang avec environ 10%. Compte tenu de son image de produit de luxe et d’exception, le foie gras est consommé un peu partout dans le monde lors des repas de haute gastronomie. Les grandes avancées de connaissance et l’évolution des pratiques d’élevage L’amélioration des connaissances sur la biologie et l’élevage des palmipèdes à foie gras a permis de rationnaliser les pratiques d’élevage et d’améliorer la qualité du produit. Plusieurs laboratoires de recherche et structures expérimentales, ayant leurs installations propres et/ou intervenant sur le terrain, ont contribué à l’acquisition de ces connaissances : l’INRA avec l’Unité Expérimentale des Palmipèdes à Foie Gras, l’UMR Tandem, le Laboratoire de Génétique Cellulaire, la Station d’Amélioration Génétique des Animaux et l’UR Avicoles, l’Institut Technique de l’AVIculture, la Ferme de l’Oie, le Centre d’Etudes des Palmipèdes du Sud Ouest, le LEGTA de Périgueux, l’ENSA Toulouse, l’ENITA Bordeaux et l’AGPM/ADAESO qui a mis fin en 2004 à ses activités sur les palmipèdes à foie gras. Aujourd’hui ces structures fédèrent leurs activités dans un but de rationalité et d’efficacité. Les avancées des connaissances et leur transfert dans la pratique, associés à une forte demande du marché, sont à l’origine de l’explosion des volumes de foie gras produits. Ainsi, la maîtrise de la reproduction couplée au développement de l’insémination artificielle de la cane commune et à la sélection génétique (Rouvier 1992, Sellier et al 1995) ont permis la production à grande échelle du canard mulard adapté à la production de foie gras. En effet, ses géniteurs, le mâle de Barbarie et la femelle Pékin, ont fait l’objet de sélections spécifiques basées sur l’aptitude au gavage et la production de foie gras de leurs descendants. La connaissance des besoins nutritionnels des animaux et le développement de stratégies d’alimentation préparant les animaux à la phase de gavage ont également été des critères déterminants pour la rationalisation d’un système d’élevage (Robin et al 2004, Bernadet 2008, Arroyo et al 2012). La filière s’est par ailleurs structurée en une interprofession (le Comité Interprofessionnel du Foie Gras - CIFOG) qui soutient financièrement des travaux de recherches et conduit des actions (organisation de salons du foie gras par exemple) visant à rendre accessibles toutes les avancées de la filière. Ainsi, l’amélioration du matériel d’élevage (gaveuse hydraulique et logement de gavage) a engendré des gains de productivité considérables (Guy et al 1994). Par exemple, en 20 ans, la taille d’une bande de gavage est passée de deux cents à mille individus. Enfin, la construction de salles de gavage, dont l’ambiance est parfaitement contrôlée autorise désormais la pratique du gavage en toute saison. Des études ont aussi permis de déterminer l’influence des conditions d’abattage et de réfrigération sur la qualité des foies gras (Rousselot-Pailley et al 1994). L’ensemble de ces facteurs a contribué à ce que les possibilités de production soient en cohérence avec la demande liée à un engouement grandissant pour le foie gras. Les pratiques d’élevage actuelles Aujourd’hui, le cycle de production d’un palmipède destiné à la production de foie gras comporte deux phases successives : la phase d’élevage, la plus longue dans la vie de l’animal (11 à 12 semaines chez le canard ou 14 semaines chez l’oie) et la phase de gavage, d’une durée très courte (10 à 12 jours chez le canard ou 14 à 18 jours chez l’oie). La phase d’élevage se décompose elle même en trois étapes (Arroyo et al 2012). Pendant la phase de démarrage (de 1 à 4 semaines d’âge) les animaux sont généralement élevés en bâtiment clos chauffé et reçoivent à volonté une alimentation granulée. Pendant la phase de croissance (de 4 à 9 semaines d’âge), les animaux ont accès à un parcours extérieur. Ils sont nourris à volonté avec un aliment composé de céréales à 75% sous forme de granulés. La dernière phase d’élevage est consacrée à la préparation au gavage (d’une durée de 2 à 5 semaines) grâce à la mise en place d’une alimentation par repas (220 à 400 g/j). Son objectif est d’augmenter le volume du jabot et de démarrer le processus de stéatose hépatique. Pendant la phase de gavage les animaux reçoivent deux (pour le canard) à quatre (pour l’oie) repas par jour d’une pâtée composée à 98% de maïs et d’eau. Le maïs est présenté soit sous forme de farine (productions de type standard), soit sous forme d’un mélange de graines entières et de farine, soit encore sous forme de grains modérément cuits (productions traditionnelles ou labellisées). En France, on distingue deux types d’exploitations. Dans les exploitations dites en filière longue et de grande taille (au nombre de 3 000 en France), les éleveurs sont spécialisés dans une des phases de la production : éleveurs de palmipèdes dits « prêt-à-gaver », gaveurs ou éleveurs-gaveurs. Ce type de production standard est sous contrôle d’un groupe ou d’une coopérative qui se charge des opérations ultérieures (abattage, transformation, commercialisation ou diffusion dans des espaces de vente à grande échelle). Il existe également des exploitations en filière courte qui produisent les animaux, transforment les produits et les commercialisent directement à la ferme et qui sont généralement de plus petite taille. Ces exploitations « fermières » ne concernent qu’une petite part de la production (10 à 15%), mais jouent un rôle important pour l’image de production traditionnelle de luxe qu’elles véhiculent auprès des consommateurs. Pourquoi un dossier sur les palmipèdes à foie gras ? Au-delà des synthèses publiées précédemment dans INRA Productions Animales, il nous a semblé intéressant de rassembler et de présenter dans un même dossier les avancées récentes concernant la connaissance de l’animal (articles de Vignal et al sur le séquençage du génome du canard et de Baéza et al sur les mécanismes de la stéatose hépatique), du produit (articles de Théron et al sur le déterminisme de la fonte lipidique du foie gras à la cuisson et de Baéza et al sur la qualité de la viande et des carcasses), ainsi que les pistes de travail pour concevoir des systèmes d’élevage innovants plus durables (article de Arroyo et al). L’actualité et les enjeux pour demain La filière est soumise à de nombreux enjeux sociétaux qui demandent de poursuivre les efforts de recherche. En effet, pour conserver son leadership mondial elle doit rester compétitive et donc maîtriser ses coûts de production tout en répondant à des attentes sociétales et environnementales spécifiques telles que la préservation de la qualité des produits, le respect du bien-être animal ou la gestion économe des ressources. Ainsi, la production de foie gras est parfois décriée eu égard à une possible atteinte au bien-être des palmipèdes pendant l’acte de gavage. De nombreux travaux ont permis de relativiser l’impact du gavage sur des oiseaux qui présentent des prédispositions à ce type de production : la totale réversibilité de l’hypertrophie des cellules hépatiques (Babilé et al 1998) ; l’anatomie et la physiologie des animaux de même que l’absence de mise en évidence d’une élévation du taux de corticostérone (considéré comme marqueur d’un stress aigu) après l’acte de gavage (Guéméné et al 2007) et plus récemment la mise en évidence de l’aptitude à un engraissement spontané du foie (Guy et al 2013). Le conseil de l’Europe a toutefois émis des recommandations concernant le logement des animaux qui préconisent, la disparition des cages individuelles de contention des canards pendant le gavage au profit des cages collectives. Par ailleurs, il recommande la poursuite de nouvelles recherches pour développer des méthodes alternatives au gavage. Parallèlement, à l’instar des autres filières de productions animales, la filière foie gras doit aussi maîtriser ses impacts environnementaux (voir aussi l’article d’Arroyo et al). Les pistes de recherches concernent prioritairement la maîtrise de l’alimentation, la gestion des effluents et des parcours d’élevage. Il reste donc de grands défis à relever pour la filière foie gras afin de continuer à proposer un produitqui conjugue plaisir et durabilité.Bonne lecture à tous !
APA, Harvard, Vancouver, ISO, and other styles
27

MORAND-FEHR, P. M., R. BAUMONT, and D. SAUVANT. "Avant-propos : Un dossier sur l’élevage caprin : pourquoi ?" INRAE Productions Animales 25, no. 3 (August 25, 2012): 227–32. http://dx.doi.org/10.20870/productions-animales.2012.25.3.3210.

Full text
Abstract:
Un dossier d’INRA Productions Animales consacré à l’élevage caprin en 2012 peut surprendre. Représentant moins de 1% du produit brut de l’Agriculture Française, cet élevage largement ancré dans son environnement socioculturel local et dans la tradition de terroirs variés, évoque encore, mais de moins en moins, des images du passé comme celle de la «vache du pauvre» ou de la grandmère gardant trois chèvres au bord du chemin. Cet élevage s’est en effet marginalisé au XIXème siècle et dans la première moitié du XXème siècle dans les pays qui s’industrialisaient, notamment en Europe où l’effectif caprin ne représente plus actuellement que 2% du total mondial. De nombreux arguments ont milité pour éditer ce dossier, d’abord la rapide transformation de l’élevage caprin à la fin du XXème siècle et plus encore dans ces premières années du XXIème siècle, ensuite des travaux originaux conduits récemment sur l’espèce caprine, qui sont venus combler le retard important que cette espèce avait accumulé en matière de recherches agronomiques et vétérinaires. A l’échelle mondiale, l’élevage caprin est celui dont les effectifs ont le plus augmenté au cours de ces vingt dernières années (FAOSTAT 2010) : 4ème troupeau mondial avec plus de 900 millions de têtes (470 millions en 1975) derrière les bovins, les ovins et les porcins ; d’après les prévisions, il deviendrait le 3ème autour de 2015. Nombreuses sont les explications à cette situation un peu paradoxale, mais deux sont souvent avancées par les experts. Cette progression actuelle des effectifs caprins s’observe presque exclusivement dans les pays en développement et dans certains pays émergents. Elle serait surtout due aux difficultés que rencontre le maintien de l’élevage des autres espèces domestiques dans ces zones, dans certains cas du fait de l’appauvrissement des éleveurs et des acteurs des filières animales. Cette progression tient aussi au fait que le marché des caprins a une réalité essentiellement locale et que, dans ces conditions, il n’est pas exposé aux crises internationales que le marché des produits des autres espèces a pu subir au cours des quarante dernières années. En Europe, les effectifs caprins sont restés assez stables : 12,5 M de têtes au total, 1,3 M en France dont 1,1 M de femelles laitières âgées de plus d’un an. La France possède le troisième troupeau (10% des effectifs européens), assez loin derrière la Grèce (37%) et l’Espagne (22%). Il convient de noter la progression importante des effectifs caprins en Roumaine et aux Pays-Bas au cours de la dernière décennie. L’élevage caprin européen, et particulièrement l’élevage français, s’est fortement spécialisé en production laitière puisque 75 à 93% environ du produit brut des ateliers caprins en France provient du lait. En effet, la marge brute que dégage la production de chevreaux de boucherie est réduite en raison des coûts des aliments d’allaitement et des aléas liés à la mortalité périnatale. Des avancées dans les techniques d’élevage, notamment dans les domaines de l’alimentation et de la génétique, ont permis des améliorations assez rapides des performances des femelles laitières. La production laitière moyenne des 240 000 chèvres inscrites au contrôle laitier en 2010 était de 842 kg de lait sur une durée moyenne de lactation de 274 jours avec un taux protéique de 32,3 g/kg de lait et un taux butyreux de 37,0 g/kg de lait. Le plus intéressant à noter, c’est qu’en dix ans la production laitière annuelle au contrôle laitier a progressé de 90 kg, le taux protéique de 1,6 g/kg et le taux butyreux de 2,5 g/kg (Institut de l’Elevage 2012). La France est le premier producteur européen de lait de chèvre avec 30% du lait produit. Plus de 80% de ce lait est transformé en fromages. Même si la consommation présente quelques signes d’essoufflement actuellement, l’augmentation de la production de lait de chèvre depuis plus de trente ans et en conséquence celle des fromages a en général été bien absorbée par la demande, en progression malgré quelques périodes tendues. Ce résultat est dû notamment à de nouveaux produits de qualités rhéologique et organoleptique bien adaptées pour conquérir de nouveaux marchés, à l’utilisation de technologies avancées en matière fromagère et à la bonne image de ce fromage (produit festif et de qualité) auprès des consommateurs. Le secteur caprin en France a suivi l’évolution générale des productions animales : mécanisation du travail, simplification des techniques pour réduire le coût de production et pour améliorer l’efficacité du travail, augmentation rapide de la taille des unités de production. Plus de 35% de chèvres laitières appartiennent à des unités de plus de 350 têtes et la production est de plus en plus concentrée dans une région, le Poitou-Charentes, qui produit plus de 50% du lait de chèvre en France et en transforme encore plus. Bref, cette évolution et ces résultats, malgré un contexte qui tend à devenir de moins en moins favorable, s’expliquent par de multiples raisons, entre autres, la mise en place d’une filière bien organisée, des éleveurs motivés et le plus souvent passionnés par leur métier et une coopération étroite et efficace entre la recherche et le développement tant au niveau national que régional. Cette coopération exemplaire a débuté dès les années 1955-1965 avec des pionniers comme G. Ricordeau, à qui l’on doit la mise en évidence du gène sans corne expliquant le taux élevé d’infertilité en caprins, facteur qui a longtemps freiné le développement caprin (Ricordeau 2008) et J.-M. Corteel, qui a beaucoup travaillé sur la mise au point des techniques d’insémination artificielle (Leboeuf 2013). Ils ont su gagner la confiance des éleveurs, même parfois de petites unités. Ce lien s’est poursuivi et développé ensuite grâce à la création de la section caprine de l’Institut technique ovin et caprin (ITOVIC), mais aussi par des relations directes et personnelles entre chercheurs et responsables du développement ou par des réunions informelles autour de certains problèmes que rencontraient les éleveurs.Cette coopération a très bien résisté dans les années 1980, d’une part, aux nouvelles demandes des éleveurs qui donnaient la priorité aux questions socio-économiques suite à la première crise du prix du lait de chèvre en 1981 et, d’autre part, aux évolutions de la politique de l’INRA, qui face aux nouveaux enjeux scientifiques et technologiques, a été conduit à considérer comme moins prioritaire certaines recherches appliquées intéressant le développement. Ainsi, malgré l’évolution des problématiques scientifiques et des relations entre le monde de la recherche et du développement, mais aussi face au développement rapide de la recherche caprine dans les pays émergents, la recherche caprine en France est toujours très active. Un sondage bibliométrique montre que le nombre de publications avec «dairy goat» en mot-clé, de 250 à 300 par an dans les années 1980-1990, s’est accru nettement au début des années 2000 pour se situer actuellement vers les 700 publications par an. Au cours des dix dernières années, les pays qui ont le plus contribué à ces publications ont été la France, donc l’INRA, suivie par les USA, l’Italie et l’Espagne, eux-mêmes suivis par le Brésil, le Mexique et la Turquie. Ce dossier de la revue INRA Productions Animales a donc pour objectif d’illustrer le dynamisme des recherches menées en France sur les caprins, s’il était encore nécessaire de le faire. Le choix des six thèmes de recherche retenus pour constituer ce numéro n’a pas été aisé en raison du nombre de thèmes possibles. L’ambition de ce dossier n’étant pas d’être exhaustif, la rédaction de la revue et son comité se sont mis d’accord pour ne pas retenir de sujets dans les domaines où les publications ont déjà été nombreuses. C’est le cas, par exemple, de la traite des chèvres laitières (Le Du 1989, Marnet et al 2001), du polymorphisme de la caséine alpha chez les caprins (Grosclaude et al 1994, Manfredi et al 1995) ou encore de la reproduction caprine. INRA Production Animales a en effet déjà publié des articles exhaustifs sur la neuro-endocrinologie de la reproduction chez le caprin (Chemineau et Delgadillo 1994), sur le comportement sexuel de cette espèce (Fabre-Nys 2000), sur la production et la conservation de semence de bouc (Leboeuf et al 2003) et récemment sur la maîtrise de la reproduction de l’espèce caprine (Leboeuf et al 2008). Il a été proposé de sélectionner des thèmes novateurs ou riches en résultats récents, qui intéressent le développement de l’élevage caprin en France, mais aussi de portée internationale. Dans ces conditions, il a d’abord été retenu trois thèmes représentant des dimensions basiques de l’élevage : génétique, pathologie, alimentation avec des articles faisant le point sur les dernières avancées dans chaque secteur, et trois autres thèmes originaux et porteurs d’avenir, le pâturage des chèvres laitières hautes productrices, les apports de la modélisation pour comprendre le fonctionnement du troupeau de chèvres laitières et les techniques rationnelles d’élevage caprin en milieu tropical. Le premier article de Manfredi et Ådnøy (2012) sur la génétique des caprins laitiers, est un travail franco-norvégien illustrant la collaboration continue sur ce thème entre les deux pays depuis près de 50 ans. Il fait le point sur les études de génétique polygénique relatives à la production et à la composition du lait. Il traite de l’approche moléculaire qui démarre en caprins et surtout répond à la question d’actualité sur ce que nous pouvons attendre dans les années futures de la sélection génomique en caprins. Le deuxième article de Hoste et al (2012) sur la pathologie caprine, a réuni des spécialistes de l’INRA, des écoles vétérinaires, de l’Anses et de l’Institut de l’Elevage. Il fait le point sur les recherches en cours et leurs applications concernant diverses pathologies infectieuses d’actualité dans le secteur caprin. Ainsi il passe en revue les principales pathologies provoquées par les prions et les virus, par les agents bactériens et la question des parasites gastro-intestinaux. L’article évoque aussi le projet de la mise en place d’un observatoire des maladies caprines en France. Il se termine par une réflexion intéressante soulignant la proximité des agents pathogènes en ovins et caprins et les différences dans les processus morbides chez ces deux espèces. Il en conclut que des études originales sur caprins sont tout à fait fondamentales pour appréhender certains mécanismes pathogéniques. L’article suivant de Sauvant et al (2012) se propose d’actualiser les recommandations alimentaires des caprins publiées en 2007, pour répondre à une demande du développement. Les avancées dans ce domaine proviennent notamment d’une approche modélisée de la connaissance des nombreuxfacteurs de variation du poids vif, de la production laitière et de la composition de lait. Les lois de réponse plus précises aux apports d’aliments concentrés, les nouvelles lois de réponse concernant la sécrétion des acides gras du lait ainsi que les excrétions d’azote et de méthane, ainsi que les valeurs repères applicables sur le terrain concernant le comportement alimentaire, l’acidose et les besoins en eau sont les principales nouveautés. L’alimentation représente, rappelons-le, 70% en moyenne du prix de revient du litre de lait de chèvre. Parmi les trois articles plus spécifiques sur des sujets originaux, figure l’article de Lefrileux et al (2012) sur l’aptitude des chèvres hautes productrices de lait à valoriser les prairies temporaires au pâturage. Il répond à des demandes variées, notamment la demande sociétale pour une conduite d’élevage plus écologique. Or, peu d’information existe sur ce sujet, d’une part, en raison de la diminution de ce mode d’alimentation à cause des problèmes parasitaires rencontrés et, d’autre part, car la chèvre a la réputation d’être une mauvaise utilisatrice du pâturage et d’avoir un comportement très affirmé pour sélectionner son ingéré. Les auteurs montrent qu’il est possible d’obtenir des performances laitières de 1000 – 1100 kg de lait par an et par chèvre avec des régimes alimentaires où plus de 50% des besoins énergétiques sont couverts par le pâturage. L’étude du fonctionnement du troupeau caprin est un sujet qui a déjà été développé à l’INRA (Santucci et al 1994) mais, au cours de ces dernières années, elle a fait l’objet d’avancées importantes grâce à l’utilisation de la modélisation. L’article de Puillet et al (2012) présente un simulateur de fonctionnement du troupeau caprin laitier permettant de tenir compte de la variabilité individuelle des carrières animales et d’étudier comment les conduites de l’alimentation et de la reproduction mises en œuvre par l’éleveur, modulent les performances du troupeau. De tels outils sont appelés à l’avenir à avoir diverses applications au niveau du terrain pour les agents de développement, par exemple pour quantifier le risque biologique associé à certaines conduites d’élevage. Le Centre INRA des Antilles-Guyane travaille depuis plus de 50 ans sur l’amélioration des systèmes de production caprine en milieu tropical (Alexandre et al 1997). Alexandre et al (2012) présentent dans le dernier article de ce numéro une synthèse sur la situation de l’élevage caprin en zone tropicale. Rappelons que 95% des caprins vivent en milieu tropical. A travers leur grande expérience du sujet, ces auteurs proposent des voies d’amélioration très prometteuses grâce à l’apport d’intrants bien réfléchi techniquement et économiquement, à l’utilisation de l’effet mâle en reproduction et à une complémentation à base d’aliments non conventionnels. Les six articles de ce numéro ne doivent pas occulter les autres recherches sur les caprins effectuées par l’INRA ou d’autres organismes. Comme il n’est pas possible d’être exhaustif, citons simplement quelques exemples qui peuvent intéresser le développement : la maîtrise de la reproduction femelle sans utilisation d’hormones pour répondre aux cahiers des charges de certains produits caprins labellisés (Brice et al 2002) ; la monotraite, technique qui a priori séduit les éleveurs en permettant une réduction de charge de travail (Komara et Marnet 2009) ; les risques d’acidose en liaison avec le comportement alimentaire des chèvres laitières, trouble métabolique encore fréquent avec certainstypes de régimes et dont les conséquences économiques peuvent être importantes (Desnoyers et al 2009) ; l’évaluation des systèmes de production caprine (Bossis et al 2008, Toussaint et al 2009) sans oublier les travaux de technologie laitière réalisées par l’ITPLC sur le fromage de chèvre (Raynal-Ljutovac et al 2007a). Il faut noter aussi le début d’études sur le bien-être des caprins (Servière et Morand-Fehr 2012) et le besoin de travaux sur les lactations longues (14 - 20 mois),technique qui séduit de plus en plus d’éleveurs. Nous devons aussi signaler deux documents importants, l’un sur la qualité du lait de petits ruminants (Haenlein et al 2007) et l’autre sur la production et la qualité de la viande caprine (Mahgoub et al 2011) dans lesquels les travaux de recherches français sur l’influence des systèmes d’alimentation sur la qualité du lait de chèvre (Morand-Fehr et al 2007), sur la stabilité à la chaleur de ce lait (Raynal-Ljutovac et al 2007b) et sur la composition lipidique du chevreau (Morand-Fehr et al 2011) sont présentés. Il nous reste à souhaiter que la lecture de ce numéro apporte une somme d’informations originales à tous les lecteurs cherchant à prendre connaissance des dernières avancées de la recherche caprine et que la recherche caprine se maintienne et se développe à l’avenir en France pour répondre aux demandes de la filière, mais aussi en milieu tropical où les caprins jouent un rôle socio-économique essentiel pour certaines populations rurales.
APA, Harvard, Vancouver, ISO, and other styles
28

DONNARS, C., P. CELLIER, and J. L. PEYRAUD. "Nouvelles de la recherche : expertise sur les flux d’azote liés aux élevages." INRAE Productions Animales 25, no. 4 (October 2, 2012): 389–92. http://dx.doi.org/10.20870/productions-animales.2012.25.4.3226.

Full text
Abstract:
Une expertise scientifique collective conduite par l’Inra (INRA 2012) pointe l’importance des flux d’azote liés aux activités d’élevage et identifie des leviers pour limiter la pression sur l’environnement. Depuis une vingtaine d’années, les pollutions azotées font l’objet de diverses législations et plans d’action dans le cadre des politiques relatives à la qualité des eaux, de l’air et des écosystèmes. La transposition de la directive «Nitrates» (12 décembre 1991) fait actuellement l’objet d’un contentieux avec la commission européenne. C’est dans ce contexte que les ministères français en charge de l’Agriculture et de l’Ecologie ont sollicité l’Inra pour dresser un bilan de l’état des connaissances scientifiques sur les flux d’azote en élevage et leur devenir. L’objectif était de mettre à disposition des décideurs et des acteurs publics et privés les connaissances scientifiques actualisées et d’identifier des options permettant de réduire les pressions de l’azote sur l’environnement. 1/LA MÉTHODE D’EXPERTISE SCIENTIFIQUE COLLECTIVELe travail d’expertise a été porté par un collectif de 22 experts. Deux tiers d’entre eux appartiennent à l’Inra, un tiers à d’autres organismes de recherche (Irstea, CNRS, universités) dont deux experts des Pays-Bas (WUR) et un du Canada (Agriculture et Agroalimentaire Canada). Les sciences sociales ont fourni un quart de l’effectif d’experts, la zootechnie et l’approche systémique des systèmes d’élevage 40% et le complément regroupe des spécialistes des cycles biogéochimiques et de l’agronomie. La méthode a consisté à dresser un état des lieux critique des connaissances scientifiques publiées. Quelque 1360 références bibliographiques (2900 auteurs) ont été sélectionnées parmi les articles les plus récents (80% des sources sont postérieures à 1998) et relatifs ou transposables au cadre géographique français. L’analyse a privilégié l’échelle de l’exploitation agricole car c’est l’unité de référence des politiques agricoles et environnementales et des actions agronomiques. Cependant les informations scientifiques portent souvent sur un niveau infra : l’animal, l’atelier d’élevage, la parcelle, le bâtiment, la zone de stockage, etc., ou sur un niveau supra : le bassin versant, le paysage, les statistiques et modélisations nationales et internationales. Ces différents niveaux d’information ont permis d’approcher les variations entre productions et celles liées aux pratiques agricoles. 2 / L’EXPERTISE A MIS EN AVANT LE RÔLE MAJEUR DE L’ÉLEVAGE DANS LES FLUX D’AZOTE ET LES IMPACTS POTENTIELS 2.1 / Les flux d’azote en élevage et les fuites vers l’environnement sont élevésL’élevage utilise plus des trois quarts des quantités d’azote entrant dans les systèmes agricoles. Mais l’efficience, c’est-à-dire le rapport entre les sorties valorisées et les entrées d’azote, calculée au niveau de l’animal est globalement faible : souvent beaucoup moins de la moitié de l’azote ingéré se retrouve sous forme de protéines consommables, lait, œufs et viande. A l’échelle de l’exploitation d’élevage, une part de l’azote excrété dans les déjections est recyclée avec les effluents mais l’efficience reste néanmoins généralement inférieure à 50%. Le reste de l’azote se disperse dans l’environnement. L’élevage contribue ainsi pour environ la moitié aux pertes nationales de nitrates vers les eaux, et pour plus des trois quarts aux émissions nationales atmosphériques azotées, notamment sous forme d’ammoniac (et jusqu’à 90% si on tient compte du fait qu’une grande partie des engrais industriels est employée sur les cultures utilisées pour produire des aliments du bétail). L’azote se trouve de ce fait à la croisée de préoccupations croissantes en termes de compétitivité des filières animales et d’impacts sur l’environnement et sur la santé humaine. Ces impacts ont été récemment décrits dans une expertise européenne (European Nitrogen Assessment 2011). Ils interviennent au niveau de l’écosystème environnant (dépôts de NH3), de la région (NH3, NO3 -) et plus globalement dans le changement climatique (émissions de N2O). 2.2 / La question de l’azote ne se réduit pas à celles du nitrate, les émissions de NH3 constituent un enjeu fort Alors qu’en France, la question du nitrate a longtemps focalisé les débats, dans certains pays d’Europe du Nord, l’ammoniacest aussi de longue date au centre des préoccupations. D’abord étudié pour son rôle dans l’acidification et l’eutrophisation des milieux, l’ammoniac est aujourd’hui examiné dans le cadre de la pollution de l’air par les particules. Au niveau national, le premier contributeur d’émissions d’ammoniac est l’élevage bovin. 2.3 / Risques et impacts dépendent aussi de la sensibilité des territoires et de leur capacité d’épurationLes teneurs en nitrate des eaux ne dépendent pas seulement du niveau de surplus des bilans azotés mais aussi du climat, des types de sol, de la topographie et des modes d’occupation des sols : densité animale, part des terres agricoles dans les utilisations totales des surfaces, importance des prairies permanentes, etc. La présence majoritaire de prairies au sein des territoires réduit les risques de fuites de nitrate et d’émissions d’ammoniac. 3/LES FLUX D’AZOTE SONT AUSSI DÉTERMINÉS PAR DES CONSIDÉRATIONS ÉCONOMIQUES ET JURIDIQUES3.1 / La concentration spatiale des élevages a un rôle déterminant dans les impacts des pollutions azotéesLes plus fortes pressions azotées se situent dans les territoires de l’Ouest qui combinent productions de ruminants et de monogastriques. Les quantités d’azote contenues dans les effluents y dépassent parfois largement les capacités d’absorption des surfaces agricoles. Les territoires d’élevage plus extensifs connaissent des pressions azotées faibles. Cette hétérogénéité s’explique par la concentration géographique des filières animales, résultant principalement de facteurs économiques dont les moteurs relèvent des économies d’échelle et des économies d’agglomération qui sont liées à l’intensification et à la spécialisation des élevages ainsi qu’à leur concentration territoriale. La littérature scientifique pointe la difficulté de sortir d’une telle trajectoire, notamment parce que le fonctionnement technique et économique des acteurs des filières (producteurs d’intrants, éleveurs, transformateurs) est étroitement dépendant. 3.2 / L’encadrement juridique n’a pas permis d’atteindre les objectifs environnementaux La réglementation française a abouti à une multiplicité de zonages auxquels sont dédiés des normes, obligations ou programmes d’action volontaire. L’architecture d’ensemble est confuse et ses résultats critiqués de longue date. Parmi les difficultés rencontrées, la littérature pointe i) le caractère diffus des pollutions, qui, à la différence d’autres pays, n’a pas incité en France àune responsabilisation individuelle des éleveurs, ii) l’intégration de préoccupations économiques et sociales dans les politiques environnementales, iii) le suivi des objectifs environnementaux confié aux acteurs du développement agricole et les échelles administratives peu pertinentes vis-à-vis du réseau hydrographique. Enfin, la multiplicité des formes de pollution azotée pose la question de la cohérence d’ensemble des politiques, notamment entre les critères de la directive «Nitrates» et ceux la Convention de Genève sur la pollution atmosphérique (1979). 4/DE NOMBREUSES PISTES DE PROGRÈS EXISTENT QUI ENGAGENT PLUS OU MOINS EXPLOITANTS AGRICO- LES, TERRITOIRES ET FILIÈRES D’ÉLEVAGE4.1 / Améliorer les pratiques à l’échelle de l’exploitationLa littérature fournit de nombreuses pistes d’actions pour limiter les pertes d’azote dans l’exploitation (figure 1). Il est encore possible d’optimiser la nutrition azotée des animaux, cependant les gains escomptés sont modestes en regard des enjeux. La maîtrise de la chaîne de gestion des effluents ouvre plus de marges de manœuvre pour préserver l’azote organique et réduire les achats d’engrais minéraux. En effet, selon les modalités de gestion des effluents, les fuites vers l’environnement varient de 30 à 75% de l’azote rejeté par les animaux. Des innovations sont déjà disponibles pour le stockage et l’épandage, même si les incertitudes sur les facteurs de variation des émissions sont encore grandes. Il est enfin démontré que développer les prairies à base de légumineuses, les cultures intermédiaires pièges à nitrate (Cipan) et ajuster les rotations réduit les risques de lixiviation du nitrate. A l’échelle des systèmes, les modes de production à bas intrants (moins de fertilisants et d’aliments riches en protéines) améliorent l’efficience de l’azote et limitent donc les pertes vers l’environnement. Les indicateurs de type bilan d’azote à l’échelle de l’exploitation et de ses sous-systèmes (troupeau, gestion des effluents, sols et cultures) sont des outils adaptés pour identifier les sources d’inefficacité et rechercher les voies d’amélioration les mieux adaptées localement. De nombreux autres indicateurs approchent les niveaux d’émissions, de pollution ou les impacts, mais ne sont pas toujours d’usage facile. pour le document complet voir le pdf https://www6.inrae.fr/productions-animales/content/download/6365/88149/version/1/file/nouvelles+de+la+recherche.pdf
APA, Harvard, Vancouver, ISO, and other styles
29

Koumaré, B., H. Cissé, A. Koné, M. Sacko, Y. Garango, D. Tangara, and D. Dembélé. "Contrôle de qualité des médicaments antipaludiques au Mali." Revue Malienne d'Infectiologie et de Microbiologie, April 29, 2016. http://dx.doi.org/10.53597/remim.v6i0.826.

Full text
Abstract:
Les molécules antipaludiques rencontrées et prélevées dans les différentes régions du Mali et du district de Bamako, ont été analysées au Laboratoire National de la Santé. Les échantillons analysés provenaient d'Afrique, d'Europe, d'Asie et d'Amérique. L'échantillonnage a concerné 303 échantillons analysés, dont 260 étaient conformes, soit un taux de 85,8% et 43 étaient non conformes, soit 14,2%. Les non conformités décelées provenaient toutes des formes comprimés et injectables et concernaient spécifiquement les molécules de quinine. Les non-conformités décelées étaient de 03 types : l'absence de principe actif indiqué, le surdosage et le sous-dosage. Suivant le circuit de prélèvement dans la chaîne de distribution, les nonconformités ont été décelées en majorité dans les hôpitaux et les Centres de santé (40 échantillons) et secondairement au niveau des dépôts de vente privés (03 échantillons).
APA, Harvard, Vancouver, ISO, and other styles
30

Vandenberghe, Vincent. "Numéro 2 - mai 2002." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16273.

Full text
Abstract:
Un constat fort se dégage des enquêtes sur les connaissances des élèves en math, en sciences et en lecture opérées depuis 30 ans par l’OCDE : la performance de notre enseignement décroche graduellement par rapport à celle des pays voisins et de la Flandre. Quels sont les déterminants probables d’un tel état de fait ? Peut-on penser que le niveau des ressources joue un rôle décisif ? A vrai dire non. Communautés française et flamande ont dépensé tout au long des années 1990 pratiquement le même montant par élève. Mais les scores des élèves en Flandre sont nettement supérieurs. Nos travaux et ceux de nombreux collègues économistes de l’éducation suggèrent que l’enjeu est avant tout organisationnel. Certes, les ressources budgétaires importent. Il est évident, par exemple, que leur niveau doit garantir la possibilité d’engager du personnel en nombre et qualité suffisants. Mais la majoration des moyens financiers et humains ne constitue nullement une condition suffisante de l’amélioration des performances. Dans l’enseignement plus que dans d’autres secteurs, le mode d’organisation (régulation) semble, en revanche, avoir une forte influence sur la relation ressources/résultats. Que peut-on dire de la situation en Communauté française sur ce plan et quels en sont les enjeux ? En bref, nous pouvons dire que le mode de régulation actuel est très insatisfaisant car très hybride. Il repose sur plusieurs conceptions de la régulation. Chacune comporte des faiblesses. De plus, l’articulation qui s’est opérée au fil des ans a été peu réfléchie, mal mise en oeuvre, et se révèle en définitive coûteuse sur le plan des performances. A l’inverse, la Flandre a accompli depuis 1970 un travail discret mais bien effectif de simplification et de clarification de son mode de régulation. L'organisation de l'enseignement en Communauté française comporte tout d'abord une composante concurrentielle (ou "quasi-marché"). Bien que le financement de l’enseignement soit public, les modalités d’octroi de ce financement font apparaître une logique concurrentielle : les parents, les élèves ou étudiants sont en effet libres de choisir leur établissement. Les établissements sont de surcroît financés en fonction du nombre d’inscrits. La faiblesse de ce modèle est qu’il est source d’iniquité, dans la mesure où le libre-choix tend généralement à accentuer le degré de ségrégation des publics entre écoles proches. Il y a par ailleurs en Communauté française une tradition de contrôle par la voie hiérarchique. Les réglementations administratives sont nombreuses dans l’enseignement : horaires, grilles salariales, taux d’encadrement, priorité d’emploi pour les personnels avec ancienneté, ... Et la tendance récente est à l’amplification. Or, l’évaluation que les économistes font sur ce type d’interventions est très mitigée. Le contrôle administratif réussit certes à générer une certaine conformité (respect formel des horaires, des taux d’encadrement prévus par la loi, …) mais il échoue à influencer les comportements des enseignants qui déterminent réellement le degré d’efficacité et d’équité du système. La présence simultanée de ces deux modes de régulation antagonistes nuit tant à l'efficacité qu'à l'équité de l'enseignement. La concurrence, pour être efficace, requiert la présence de producteurs libres de choisir l’usage des ressources qui leur paraît le plus indiqué pour répondre à la demande. Or, le contrôle administratif limite fortement l'autonomie des écoles en multipliant règles et procédures à respecter. On peut également douter du fait que le contrôle administratif exerce une action correctrice par rapport aux effets néfastes du libre-choix. Ainsi, peu de mesures administratives en vigueur sont de nature à limiter la ségrégation des publics ou ses effets. L’uniformité des salaires et des modes de gestion du personnel empêche, par exemple, l’octroi de primes salariales aux enseignants s’occupant d’élèves en difficulté. Que faire dès lors ? En dépit de toutes les limitations d'un système de libre-choix, et malgré la tendance à la ségrégation des publics qui la caractérise, nous ne croyons pas à son remplacement par un modèle hiérarchique pur, avec, comme en France, une carte scolaire synonyme d’assignation de l’école en fonction du lieu de résidence. Car il y a la question du coût politique de l’abandon du libre-choix de l’école. Mais il y a aussi le risque d’une accentuation de la ségrégation résidentielle. L’option de politique scolaire doit plutôt être celle d'encadrer le système de libre-choix, mais pas via un renforcement du contrôle hiérarchique de type bureaucratique. Il est plus indiqué d’opter, comme en Flandre mais aussi en Finlande ou en Grande-Bretagne, pour un encadrement par voie de contractualisation. Il s’agirait de dissocier plus nettement qu’aujourd’hui les fonctions de contrôle et de production du service éducatif. Aux écoles, il reviendrait de décider plus librement des horaires de présence des professeurs et des élèves, de la durée des cours par matière, du nombre et du type d’enseignants à recruter ou encore de l’opportunité de les envoyer en recyclage. A l’administration, il appartiendrait d’évaluer la performance des écoles. Son rôle principal deviendrait de faire passer aux élèves, à intervalles réguliers, des tests standardisés, à l’image de ceux conçus par l’OCDE. Les résultats à ces tests, pondérés pour tenir compte de l’origine socio-économique des élèves, formeraient la base de l’évaluation des écoles. Et ce n’est qu’en cas d’évaluation négative répétée qu’il y aurait intervention dans la gestion de l’école, par un changement de direction, une mise sous tutelle, …
APA, Harvard, Vancouver, ISO, and other styles
31

Vandenberghe, Vincent. "Numéro 2 - mai 2002." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2002.05.01.

Full text
Abstract:
Un constat fort se dégage des enquêtes sur les connaissances des élèves en math, en sciences et en lecture opérées depuis 30 ans par l’OCDE : la performance de notre enseignement décroche graduellement par rapport à celle des pays voisins et de la Flandre. Quels sont les déterminants probables d’un tel état de fait ? Peut-on penser que le niveau des ressources joue un rôle décisif ? A vrai dire non. Communautés française et flamande ont dépensé tout au long des années 1990 pratiquement le même montant par élève. Mais les scores des élèves en Flandre sont nettement supérieurs. Nos travaux et ceux de nombreux collègues économistes de l’éducation suggèrent que l’enjeu est avant tout organisationnel. Certes, les ressources budgétaires importent. Il est évident, par exemple, que leur niveau doit garantir la possibilité d’engager du personnel en nombre et qualité suffisants. Mais la majoration des moyens financiers et humains ne constitue nullement une condition suffisante de l’amélioration des performances. Dans l’enseignement plus que dans d’autres secteurs, le mode d’organisation (régulation) semble, en revanche, avoir une forte influence sur la relation ressources/résultats. Que peut-on dire de la situation en Communauté française sur ce plan et quels en sont les enjeux ? En bref, nous pouvons dire que le mode de régulation actuel est très insatisfaisant car très hybride. Il repose sur plusieurs conceptions de la régulation. Chacune comporte des faiblesses. De plus, l’articulation qui s’est opérée au fil des ans a été peu réfléchie, mal mise en oeuvre, et se révèle en définitive coûteuse sur le plan des performances. A l’inverse, la Flandre a accompli depuis 1970 un travail discret mais bien effectif de simplification et de clarification de son mode de régulation. L'organisation de l'enseignement en Communauté française comporte tout d'abord une composante concurrentielle (ou "quasi-marché"). Bien que le financement de l’enseignement soit public, les modalités d’octroi de ce financement font apparaître une logique concurrentielle : les parents, les élèves ou étudiants sont en effet libres de choisir leur établissement. Les établissements sont de surcroît financés en fonction du nombre d’inscrits. La faiblesse de ce modèle est qu’il est source d’iniquité, dans la mesure où le libre-choix tend généralement à accentuer le degré de ségrégation des publics entre écoles proches. Il y a par ailleurs en Communauté française une tradition de contrôle par la voie hiérarchique. Les réglementations administratives sont nombreuses dans l’enseignement : horaires, grilles salariales, taux d’encadrement, priorité d’emploi pour les personnels avec ancienneté, ... Et la tendance récente est à l’amplification. Or, l’évaluation que les économistes font sur ce type d’interventions est très mitigée. Le contrôle administratif réussit certes à générer une certaine conformité (respect formel des horaires, des taux d’encadrement prévus par la loi, …) mais il échoue à influencer les comportements des enseignants qui déterminent réellement le degré d’efficacité et d’équité du système. La présence simultanée de ces deux modes de régulation antagonistes nuit tant à l'efficacité qu'à l'équité de l'enseignement. La concurrence, pour être efficace, requiert la présence de producteurs libres de choisir l’usage des ressources qui leur paraît le plus indiqué pour répondre à la demande. Or, le contrôle administratif limite fortement l'autonomie des écoles en multipliant règles et procédures à respecter. On peut également douter du fait que le contrôle administratif exerce une action correctrice par rapport aux effets néfastes du libre-choix. Ainsi, peu de mesures administratives en vigueur sont de nature à limiter la ségrégation des publics ou ses effets. L’uniformité des salaires et des modes de gestion du personnel empêche, par exemple, l’octroi de primes salariales aux enseignants s’occupant d’élèves en difficulté. Que faire dès lors ? En dépit de toutes les limitations d'un système de libre-choix, et malgré la tendance à la ségrégation des publics qui la caractérise, nous ne croyons pas à son remplacement par un modèle hiérarchique pur, avec, comme en France, une carte scolaire synonyme d’assignation de l’école en fonction du lieu de résidence. Car il y a la question du coût politique de l’abandon du libre-choix de l’école. Mais il y a aussi le risque d’une accentuation de la ségrégation résidentielle. L’option de politique scolaire doit plutôt être celle d'encadrer le système de libre-choix, mais pas via un renforcement du contrôle hiérarchique de type bureaucratique. Il est plus indiqué d’opter, comme en Flandre mais aussi en Finlande ou en Grande-Bretagne, pour un encadrement par voie de contractualisation. Il s’agirait de dissocier plus nettement qu’aujourd’hui les fonctions de contrôle et de production du service éducatif. Aux écoles, il reviendrait de décider plus librement des horaires de présence des professeurs et des élèves, de la durée des cours par matière, du nombre et du type d’enseignants à recruter ou encore de l’opportunité de les envoyer en recyclage. A l’administration, il appartiendrait d’évaluer la performance des écoles. Son rôle principal deviendrait de faire passer aux élèves, à intervalles réguliers, des tests standardisés, à l’image de ceux conçus par l’OCDE. Les résultats à ces tests, pondérés pour tenir compte de l’origine socio-économique des élèves, formeraient la base de l’évaluation des écoles. Et ce n’est qu’en cas d’évaluation négative répétée qu’il y aurait intervention dans la gestion de l’école, par un changement de direction, une mise sous tutelle, …
APA, Harvard, Vancouver, ISO, and other styles
32

Barros, Paulo Henrique Nunes De, and Josefa Sônia Pereira da Fonseca. "Comment réduire les coûts grâce à l’entreposage et à la distribution: une approche logistique." Revista Científica Multidisciplinar Núcleo do Conhecimento, April 22, 2021, 110–41. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/administration-des-affaires/approche-logistique.

Full text
Abstract:
Le présent travail vise à révéler la possibilité de réduction des coûts des entreprises avec l’interférence dans la gestion de la chaîne d’approvisionnement, en particulier dans le stockage et la distribution, à travers la présentation détaillée du thème de la réduction des coûts et l’étude de cas des résultats obtenus par la société UPS, choisie pour être la plus grande entreprise dans le domaine de la logistique. L’étude cherche à répondre à la question de savoir comment nous réalisons des économies de coûts grâce à l’entreposage et à la distribution, du point de vue de la logistique. Pour cela, la perspective de la logistique en administration des affaires sera présentée, clarifiant les concepts de gestion et de vision de la chaîne d’approvisionnement, de transport et de stockage, de collecte et de distribution des produits, en combinant avec l’étude de cas proposée les concepts de pertinence dans le domaine de la gestion de la chaîne d’approvisionnement (CS). En conséquence, nous avons constaté qu’il est possible de réaliser des économies de coûts grâce à la gestion rationnelle du CS, en soulignant l’importance de la logistique, de ses outils et de son histoire, en montrant les méthodes utilisées par UPS dans sa gestion du CS, pour atteindre des niveaux internationaux de l’excellence dans le domaine, et des résultats supérieurs aux attentes, en accordant une attention particulière à chacune des étapes de gestion: Entreposage et distribution des produits. Le travail conclut que, les entreprises qui ont l’intention de s’implanter dans la branche complexe de la logistique doivent non seulement comprendre tous les maillons de la chaîne d’approvisionnement, ayant pour valeur l’engagement au résultat de qualité, mais aussi une gestion efficace du stockage et de la distribution, avec l’utilisation d’outils d’intégration modernes tels que les systèmes ERP, visant à leur véritable insertion sur le marché international, qui présente de nombreux attraits. Afin de réussir à réduire les coûts de la Chaîne d’approvisionnement, un modèle économique basé sur la réponse avec la sophistication financière requise par les meilleures pratiques, une gestion totale et une vision du cycle de la Chaîne d’approvisionnement est essentiel, permettant une plus grande agilité et efficacité.
APA, Harvard, Vancouver, ISO, and other styles
33

Cockx, Bart. "Numéro 108 - décembre 2013." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15213.

Full text
Abstract:
En Belgique, le chômage des jeunes est structurellement plus élevé que dans de nombreux autres pays européens et touche particulièrement les jeunes peu qualifiés. Ceci est non seulement vrai pour la Wallonie et Bruxelles, mais aussi pour la Flandre. Cet article vise à identifier les causes de ce chômage élevé et à proposer quelques remèdes clés. Nous passons en revue les dimensions suivantes : la protection de l'emploi, y compris le salaire minimum, le système d'enseignement, le système d'allocations de chômage et les politiques d'insertion en emploi. Salaire minimum trop élevé Le salaire minimum en Belgique est un des plus élevé parmi les pays de l'OCDE. Plusieurs études scientifiques ont établi qu'un salaire minimum élevé a un impact très préjudiciable sur l'emploi des jeunes à faible qualification. La raison en est simple : comme la productivité de ces jeunes ne couvre pas leur coût, il n'est pas rentable pour un employeur d'embaucher ces jeunes. Pour remédier à ce problème, jusqu'à récemment, un taux de réduction était d'application sur le salaire minimum des travailleurs plus jeunes que 21 ans. Toutefois, les partenaires sociaux ont décidé de graduellement abolir ce taux de réduction. Ceci est une erreur. Par ailleurs, il faut aussi envisager des mesures qui réduisent le coût d'embauche de ces jeunes. Plutôt que de baisser le salaire minimum davantage, nous préconisons un renforcement de la réduction structurelle du coût du travail des travailleurs à bas salaire. Cette réduction supplémentaire peut être financée en supprimant la majorité des aides ciblées au recrutement. Eliminer le redoublement et le cloisonnement entre l'école et le travail, postposer l'orientation Les résultats de l'enquête PISA viennent de confirmer cette semaine que les résultats scolaires en Flandre sont parmi les meilleurs de l'Europe, mais en déclin et parmi les plus inégaux au monde. Les résultats en Fédération Wallonie-Bruxelles demeurent médiocres. Par ailleurs, une part beaucoup plus faible que dans d'autre pays européens combinent en Belgique les études et le travail. Le redoublement est toujours utilisé comme instrument de remédiation, même si la plupart des études scientifiques indiquent que le redoublement aggrave sensiblement les résultats scolaires. Bien que la recherche scientifique ne soit pas concluante concernant le niveau de réussite moyen, elle a établi que l'orientation précoce en Belgique a des effets négatifs sur les résultats des élèves issus de familles défavorisées. Enfin, des études ont montré que la transition de l'école au travail est fortement facilitée par un système d'apprentissage en alternance qui garantit une formation de haute qualité basée sur le travail. Ce système est trop peu développé en Belgique. En Flandre, la réforme de l'enseignement récemment proposée va dans la bonne direction, mais l'opposition du NVA a fortement réduit les chances de son adoption. En Fédération Wallonie-Bruxelles, peu de réformes de l'enseignement obligatoire ont été engagées, à part l'annonce d'une réforme structurelle dans le «Plan Horizon 2022». Octroyer une allocation de chômage plus rapidement et cibler davantage les politiques d'insertion en emploi Le gouvernement fédéral a récemment allongé de 9 à 12 mois la période d'attente («période d'insertion») avant que les jeunes qui sortent de l'école et qui sont à la recherche d'un emploi aient droit à une indemnité de chômage. Par ailleurs, il a décidé de renforcer le contrôle de la recherche d'emploi de ces jeunes. Il est peu probable que ces mesures amélioreront l'insertion des jeunes peu qualifiés. Si l'on veut vraiment réaliser l'insertion professionnelle de ces jeunes, il faut attribuer plus rapidement aux jeunes qui se retrouvent au chômage après leurs études une allocation de chômage modeste couplée à un suivi beaucoup plus étroit qu'actuellement de leurs actions d'insertion. Afin de limiter les coûts, il importe de fortement cibler l'accompagnement de jeunes demandeurs d'emploi sur les moins qualifiés d'entre eux et de baser le contrôle de leurs activités de recherche d'emploi sur des preuves écrites à renvoyer régulièrement par courrier (électronique), au lieu de les évaluer dans des entretiens.
APA, Harvard, Vancouver, ISO, and other styles
34

Cockx, Bart. "Numéro 108 - décembre 2013." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2013.12.01.

Full text
Abstract:
En Belgique, le chômage des jeunes est structurellement plus élevé que dans de nombreux autres pays européens et touche particulièrement les jeunes peu qualifiés. Ceci est non seulement vrai pour la Wallonie et Bruxelles, mais aussi pour la Flandre. Cet article vise à identifier les causes de ce chômage élevé et à proposer quelques remèdes clés. Nous passons en revue les dimensions suivantes : la protection de l'emploi, y compris le salaire minimum, le système d'enseignement, le système d'allocations de chômage et les politiques d'insertion en emploi. Salaire minimum trop élevé Le salaire minimum en Belgique est un des plus élevé parmi les pays de l'OCDE. Plusieurs études scientifiques ont établi qu'un salaire minimum élevé a un impact très préjudiciable sur l'emploi des jeunes à faible qualification. La raison en est simple : comme la productivité de ces jeunes ne couvre pas leur coût, il n'est pas rentable pour un employeur d'embaucher ces jeunes. Pour remédier à ce problème, jusqu'à récemment, un taux de réduction était d'application sur le salaire minimum des travailleurs plus jeunes que 21 ans. Toutefois, les partenaires sociaux ont décidé de graduellement abolir ce taux de réduction. Ceci est une erreur. Par ailleurs, il faut aussi envisager des mesures qui réduisent le coût d'embauche de ces jeunes. Plutôt que de baisser le salaire minimum davantage, nous préconisons un renforcement de la réduction structurelle du coût du travail des travailleurs à bas salaire. Cette réduction supplémentaire peut être financée en supprimant la majorité des aides ciblées au recrutement. Eliminer le redoublement et le cloisonnement entre l'école et le travail, postposer l'orientation Les résultats de l'enquête PISA viennent de confirmer cette semaine que les résultats scolaires en Flandre sont parmi les meilleurs de l'Europe, mais en déclin et parmi les plus inégaux au monde. Les résultats en Fédération Wallonie-Bruxelles demeurent médiocres. Par ailleurs, une part beaucoup plus faible que dans d'autre pays européens combinent en Belgique les études et le travail. Le redoublement est toujours utilisé comme instrument de remédiation, même si la plupart des études scientifiques indiquent que le redoublement aggrave sensiblement les résultats scolaires. Bien que la recherche scientifique ne soit pas concluante concernant le niveau de réussite moyen, elle a établi que l'orientation précoce en Belgique a des effets négatifs sur les résultats des élèves issus de familles défavorisées. Enfin, des études ont montré que la transition de l'école au travail est fortement facilitée par un système d'apprentissage en alternance qui garantit une formation de haute qualité basée sur le travail. Ce système est trop peu développé en Belgique. En Flandre, la réforme de l'enseignement récemment proposée va dans la bonne direction, mais l'opposition du NVA a fortement réduit les chances de son adoption. En Fédération Wallonie-Bruxelles, peu de réformes de l'enseignement obligatoire ont été engagées, à part l'annonce d'une réforme structurelle dans le «Plan Horizon 2022». Octroyer une allocation de chômage plus rapidement et cibler davantage les politiques d'insertion en emploi Le gouvernement fédéral a récemment allongé de 9 à 12 mois la période d'attente («période d'insertion») avant que les jeunes qui sortent de l'école et qui sont à la recherche d'un emploi aient droit à une indemnité de chômage. Par ailleurs, il a décidé de renforcer le contrôle de la recherche d'emploi de ces jeunes. Il est peu probable que ces mesures amélioreront l'insertion des jeunes peu qualifiés. Si l'on veut vraiment réaliser l'insertion professionnelle de ces jeunes, il faut attribuer plus rapidement aux jeunes qui se retrouvent au chômage après leurs études une allocation de chômage modeste couplée à un suivi beaucoup plus étroit qu'actuellement de leurs actions d'insertion. Afin de limiter les coûts, il importe de fortement cibler l'accompagnement de jeunes demandeurs d'emploi sur les moins qualifiés d'entre eux et de baser le contrôle de leurs activités de recherche d'emploi sur des preuves écrites à renvoyer régulièrement par courrier (électronique), au lieu de les évaluer dans des entretiens.
APA, Harvard, Vancouver, ISO, and other styles
35

Taskin, Laurent. "Numéro 37 - février 2006." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15903.

Full text
Abstract:
Malgré la signature récente d’une convention collective de travail (CCT) précisant le cadre juridique de l’exercice du télétravail, ce numéro de Regards économiques soutient que la régulation du télétravail constitue avant tout un défi pour le management. C’est au sein des entreprises que celui-ci est appelé à être régulé, au-delà d’un cadre juridique plus ou moins contraignant. Depuis une trentaine d’années, le télétravail est parfois l’objet des fantasmes les plus fous : outre les projections dont son développement fait l’objet, il est parfois cité comme panacée à des maux aussi divers que la pollution des villes, la gestion des fins de carrière ou encore récemment la grippe aviaire ! Aujourd’hui, il s’impose dans les entreprises comme un mode d’organisation flexible du travail qui semble répondre aux préoccupations du moment en matière de mobilité ou de qualité de vie. Dans un contexte de transformation du travail (sous l’impulsion de la flexibilité, des technologies de l’information et de la communication (TIC), de l’individualisation et de l’accent mis sur les compétences individuelles) et dans un cadre juridique inadapté, le télétravail s’est surtout développé de manière informelle; certaines études estimant même que plus de 78 % des télétravailleurs Belges le sont sans avenant au contrat de travail, sans convention locale ou sans accord d’aucun type. C’est donc d’abord son manque de formalisation qui a appelé à une régulation nouvelle. Le cadre réglementaire constitue, certes, un premier niveau de régulation du télétravail. La loi de 1996 relative au travail à domicile, l’accord cadre européen signé en 2002 et transposé en Belgique par une CCT signée en novembre 2005 (et qui devrait entrer en application au plus tard le 1er juillet 2006) sont les principaux éléments de cette régulation nécessaire, mais non suffisante. Car, si le télétravail questionne le droit social, il remet surtout en question certaines pratiques de gestion, particulièrement en matière de gestion des ressources humaines. Le véritable enjeu du télétravail, que nous avons nommé «déspacialisation», se situe donc bien dans la gestion de cette distance non seulement physique du travailleur, mais aussi et surtout psychosociologique, liée à l’éloignement d’avec son environnement de travail au sens large (collègues, espaces communs, échanges informels et formels, etc.). Le télétravail questionne, en effet, la règle des trois unités (de lieu, de temps et d’action) qui caractérise traditionnellement l’exercice de toute activité professionnelle et managériale. De ce bouleversement majeur émergent certains enjeux socio-économiques et de gestion, tels que la conciliation entre vie privée et vie professionnelle - lorsque le travail pénètre l’espace et les temps privés -, l’exercice du contrôle managérial, la disponibilité, la productivité, le rôle de la fonction d’encadrement ou encore l’implication des travailleurs. C’est dans ce contexte et à ce niveau que se pose la question de la régulation de l’activité professionnelle, lorsqu’elle se trouve ainsi «déspacialisée». C’est sous la forme d’une régulation conjointe, au sens de J-D Reynaud (1989), que nous imaginons cette régulation de la distance au sein des organisations. C’est-à-dire une régulation qui ne soit pas seulement le fruit du management, mais qui puisse être concertée et investie d’un certain sens collectif, dans le cadre d’arrangements (de conventions) construits par les acteurs locaux, autour des motivations et des modalités de développement du télétravail, mais aussi des pratiques spécifiques de gestion à mettre en place, spécialement en matière de management humain : tactiques de socialisation particulières (réunions hebdomadaires, espaces de dialogue autour de l’expérience de télétravail), transition du rôle de manager-superviseur vers celui de manager-coach (suivi qualitatif du travail effectué en dehors des locaux de l’entreprise, gestion des temps de non-présence dans les bureaux, reconnaissance de la situation de télétravail auprès des collègues, etc.), aménagement du contrat social (confiance, loyauté, transparence au niveau des attentes, des critères d’accès au télétravail), etc. C’est à ce titre que le télétravail, parce qu’il appelle une gestion qui dépasse les frontières traditionnelles de la relation d’emploi, constitue un enjeu pour la fonction ressources humaines elle-même, en questionnant sa légitimité de garant du contrat social. Les enjeux de la régulation du télétravail se situent au sein même des organisations, en grande partie dans les mains du management.
APA, Harvard, Vancouver, ISO, and other styles
36

Taskin, Laurent. "Numéro 37 - février 2006." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2006.02.01.

Full text
Abstract:
Malgré la signature récente d’une convention collective de travail (CCT) précisant le cadre juridique de l’exercice du télétravail, ce numéro de Regards économiques soutient que la régulation du télétravail constitue avant tout un défi pour le management. C’est au sein des entreprises que celui-ci est appelé à être régulé, au-delà d’un cadre juridique plus ou moins contraignant. Depuis une trentaine d’années, le télétravail est parfois l’objet des fantasmes les plus fous : outre les projections dont son développement fait l’objet, il est parfois cité comme panacée à des maux aussi divers que la pollution des villes, la gestion des fins de carrière ou encore récemment la grippe aviaire ! Aujourd’hui, il s’impose dans les entreprises comme un mode d’organisation flexible du travail qui semble répondre aux préoccupations du moment en matière de mobilité ou de qualité de vie. Dans un contexte de transformation du travail (sous l’impulsion de la flexibilité, des technologies de l’information et de la communication (TIC), de l’individualisation et de l’accent mis sur les compétences individuelles) et dans un cadre juridique inadapté, le télétravail s’est surtout développé de manière informelle; certaines études estimant même que plus de 78 % des télétravailleurs Belges le sont sans avenant au contrat de travail, sans convention locale ou sans accord d’aucun type. C’est donc d’abord son manque de formalisation qui a appelé à une régulation nouvelle. Le cadre réglementaire constitue, certes, un premier niveau de régulation du télétravail. La loi de 1996 relative au travail à domicile, l’accord cadre européen signé en 2002 et transposé en Belgique par une CCT signée en novembre 2005 (et qui devrait entrer en application au plus tard le 1er juillet 2006) sont les principaux éléments de cette régulation nécessaire, mais non suffisante. Car, si le télétravail questionne le droit social, il remet surtout en question certaines pratiques de gestion, particulièrement en matière de gestion des ressources humaines. Le véritable enjeu du télétravail, que nous avons nommé «déspacialisation», se situe donc bien dans la gestion de cette distance non seulement physique du travailleur, mais aussi et surtout psychosociologique, liée à l’éloignement d’avec son environnement de travail au sens large (collègues, espaces communs, échanges informels et formels, etc.). Le télétravail questionne, en effet, la règle des trois unités (de lieu, de temps et d’action) qui caractérise traditionnellement l’exercice de toute activité professionnelle et managériale. De ce bouleversement majeur émergent certains enjeux socio-économiques et de gestion, tels que la conciliation entre vie privée et vie professionnelle - lorsque le travail pénètre l’espace et les temps privés -, l’exercice du contrôle managérial, la disponibilité, la productivité, le rôle de la fonction d’encadrement ou encore l’implication des travailleurs. C’est dans ce contexte et à ce niveau que se pose la question de la régulation de l’activité professionnelle, lorsqu’elle se trouve ainsi «déspacialisée». C’est sous la forme d’une régulation conjointe, au sens de J-D Reynaud (1989), que nous imaginons cette régulation de la distance au sein des organisations. C’est-à-dire une régulation qui ne soit pas seulement le fruit du management, mais qui puisse être concertée et investie d’un certain sens collectif, dans le cadre d’arrangements (de conventions) construits par les acteurs locaux, autour des motivations et des modalités de développement du télétravail, mais aussi des pratiques spécifiques de gestion à mettre en place, spécialement en matière de management humain : tactiques de socialisation particulières (réunions hebdomadaires, espaces de dialogue autour de l’expérience de télétravail), transition du rôle de manager-superviseur vers celui de manager-coach (suivi qualitatif du travail effectué en dehors des locaux de l’entreprise, gestion des temps de non-présence dans les bureaux, reconnaissance de la situation de télétravail auprès des collègues, etc.), aménagement du contrat social (confiance, loyauté, transparence au niveau des attentes, des critères d’accès au télétravail), etc. C’est à ce titre que le télétravail, parce qu’il appelle une gestion qui dépasse les frontières traditionnelles de la relation d’emploi, constitue un enjeu pour la fonction ressources humaines elle-même, en questionnant sa légitimité de garant du contrat social. Les enjeux de la régulation du télétravail se situent au sein même des organisations, en grande partie dans les mains du management.
APA, Harvard, Vancouver, ISO, and other styles
37

Hervé, Caroline. "Communs." Anthropen, 2018. http://dx.doi.org/10.17184/eac.anthropen.086.

Full text
Abstract:
Les communs (commons en anglais) peuvent être définis comme un ensemble de ressources physiques, matérielles ou immatérielles que les êtres humains cherchent à exploiter, à gérer ou à protéger pour assurer leur survie biologique, économique, sociale ou encore culturelle. Très à la mode depuis une quarantaine d’années en anthropologie, sociologie, histoire, économie ou encore en philosophie, ce concept a vu son champ d’application s’élargir, ses propositions théoriques s’étoffer et ses analyses se complexifier, tout en perdant progressivement son sens historique. Sortis du champ académique et instrumentalisés par les mouvements de résistance au néolibéralisme, les communs sont désormais au cœur de débats de société. La façon dont cette notion interroge les interactions entre les êtres humains et leur environnement, son intérêt pour éclairer la fabrication du social et sa réutilisation dans le débat public en fait un objet de recherche riche pour l’anthropologie. La définition du concept de communs est une entreprise difficile tant il renvoie à des usages divers. Si certains chercheurs tendent à privilégier, en français, l’usage du pluriel afin de marquer la grande variété des ressources regroupées sous la terminologie de communs, que l’on parle de ressources naturelles, mais également sociales ou intellectuelles, d’autres auteurs insistent sur l’importance d’utiliser le terme au singulier afin de souligner son potentiel théorique et pratique (Hardt et Negri 2012 ; Dardot et Laval 2014). L’origine étymologique du terme commun, construit sur les locutions latines cum et munus, renvoie à une idée centrale, celle de la mise commun ou de la gestion commune de biens, mettant l’accent sur le fait que le commun « implique donc toujours une certaine obligation de réciprocité liée à l’exercice de responsabilités publiques » (Dardot et Laval 2014 : 23). Ces deux aspects, celui de réciprocité et de responsabilité publique, sont au cœur de la définition historique des communs. Les origines du concept renvoient à une pratique de gestion des terres qui était courante dans différentes régions d’Europe avant la fin du Moyen-Âge et qui consistait en la gestion commune de certaines terres par un groupe de personnes ou d’unités familiales pendant une période de temps limitée. Dans certaines circonstances, tout le monde pouvait avoir accès à ces terres, selon des règles d’usage particulières ; dans d’autres cas, leur usage était restreint et contrôlé. Ce fonctionnement communal a progressivement été mis en cause par les autorités publiques et les cercles politiques à partir du milieu du XVIIIe siècle. En l’espace d’un siècle, la plupart des communs en Europe de l’ouest devinrent ainsi des propriétés privées ou publiques (De Moor 2011 : 425). Ceci correspond au phénomène connu des enclosures qui s’est particulièrement développé en Angleterre dans la seconde moitié du XVIIIe siècle, à travers lequel de larges étendues de champs ouverts, connus sous le nom de terrains communaux ou commons, ont progressivement été parcellisés et enclos (Hemmungs Wirtén 2013 : 2), dans un contexte marqué par l’augmentation démographique et l’industrialisation. Ce retour dans l’histoire est important pour comprendre les confusions qui sont apparues lorsque les chercheurs des différentes disciplines ont commencé à s’intéresser plus largement à la question des communs à partir du milieu du XXe siècle. L’une des confusions les plus importantes a été introduite par le biais du travail de Garrett Hardin dans son célèbre article « The Tragedy of the Commons », publié en 1968, dans lequel il explique que les communs sont susceptibles de surexploitation et donc de disparition. Sa thèse principale repose sur l’idée biaisée que les communs historiques étaient accessibles à tous et en tout temps. À la suite de la parution de cet article, les chercheurs ont ainsi commencé à utiliser le terme de communs pour faire référence à toutes formes de ressources utilisées par tous et sans contrôle, ce qui ne correspond pourtant pas à sa définition historique (De Moor 2011 : 425). L’article de Hardin a ouvert de nombreuses recherches portant sur les solutions à mettre en œuvre pour contrer la dégradation des communs. Mais ces travaux sont souvent restés coincés entre deux options : la prise en charge des communs par l’État ou par le marché. C’est dans ce contexte que le travail de la politologue Elinor Ostrom (1990), en proposant une troisième voie, a eu un retentissement important dans le monde académique, et même au-delà. La publication de son livre Governing the Commons constitue une étape essentielle dans les recherches sur la gestion des communs. Non seulement, elle montre que l’exploitation des communs ne mène pas inéluctablement vers leur fin, mais elle explore la diversité des arrangements institutionnels permettant la gestion de ceux-ci, sans pour autant avoir recours à l’État ou à la privatisation. Sa contribution est consacrée en 2009 lorsqu’elle reçoit, en même temps qu’Oliver Williamson, le prix Nobel d’économie pour son analyse de la gouvernance économique et celle des communs. La création de l’International Association for the Study of the Commons en 1989 ou encore la création de l’International Journal of the Commons en 2007, révélateurs d’un engouement scientifique pour la question des communs, permettent la diffusion des théories et des méthodes dans les différentes disciplines et dans la société civile, à tel point que l’étude même des communs comporte aujourd’hui des enjeux politiques, sociaux et même éthiques (Peugeot et Piron 2015). Les travaux d’Elinor Ostrom s’inscrivent dans une démarche résolument interdisciplinaire puisqu’elle utilise des études de cas, des concepts, des modèles et des méthodes issus de différentes sciences sociales, et tout particulièrement de l’anthropologie. Loin de développer une perspective purement institutionnelle, Ostrom s’intéresse en effet avant tout aux stratégies développées par les acteurs sociaux pour gérer des ressources en commun. Elle s’appuie pour cela sur de nombreuses études de cas développées par des anthropologues pour comprendre par exemple les systèmes d’irrigation au Népal, dans les Philippines ou à Los Angeles, la gestion des forêts en Inde, en Asie, en Afrique et en Amérique latine ou encore la pêche côtière en Inde ou au Canada (Acheson 2011 : 320). Même si son usage de l’anthropologie est qualifié de fragmentaire, puisque sortant ces études de cas de leurs contextes politiques ou culturels, ses travaux sont néanmoins reconnus comme une contribution majeure à la discipline anthropologique (Rabinowitz 2010). Outre celle des interactions entre les hommes et leur environnement, les travaux d’Ostrom rejoignent bien d’autres questions intéressant les anthropologues. Ils interrogent directement la gestion des ressources collectives, la nature des liens de coopération et la fabrique des communautés (Rabinowitz 2010 : 104), la production des normes et des règles sociales, ainsi que de la propriété, privée ou publique (Acheson 2011 : 320). Enfin, en montrant le rôle important de la réciprocité dans la plupart des cas de gestion alternative des ressources, les anthropologues ont mis en évidence, à partir de leurs différents terrains, le fait que l’homme n’était pas uniquement animé par une logique économique, mais que le symbolisme était central dans les pratiques d’échange, renvoyant ainsi aux théories sur le don, concept dont les anthropologues ont étudié les multiples formes dans les sociétés humaines. Dans la foulée des propositions théoriques de Hardin et de Ostrom, un véritable engouement s’est manifesté autour de la question de ces communs naturels, en anthropologie et dans les autres disciplines des sciences sociales. Ces travaux ont fourni des modèles inspirant pour d’autres types d’objets de recherche et plus récemment les chercheurs ont commencé à identifier de nouveaux communs (new commons), comme des biens communs sociaux (social commons) qui constituent des ressources sociales ou des services destinés à des groupes sociaux spécifiques, des communs de nature intellectuelle ou encore culturelle incluant des ressources aussi variées que la musique, l’artisanat, les technologies numériques, etc. (Nonini 2006 : 166-167). Certains anthropologues ont même avancé l’idée que les communs peuvent englober des dimensions plus invisibles de la vie sociale relevant du domaine cognitif, corporel ou affectif, comme par exemple chez les Urarina, peuple indigène du Pérou, pour lesquels la notion même de tranquillité doit être l’objet d’un partage ou d’une réciprocité (Walker 2015). L’extension du concept de communs à des domaines aussi divers de la vie sociale explique aujourd’hui la difficulté à en donner une définition uniforme et certaines ambivalences quant à ses usages et ses analyses. De façon plus générale, la naturalisation du discours sur les biens communs a nécessité de s’engager dans une réflexion critique sur cet objet, ce que l’anthropologie a pu prendre en charge à travers sa capacité à mettre en perspective la production du social. Le succès du terme ne s’est en effet pas limité au milieu académique. Dans le contexte des dernières décennies, alors que des corporations, des gouvernements et d’autres types d’institutions politiques, privées ou non-gouvernementales, ont dépossédé certains groupes humains de leurs ressources dans la mouvance de la globalisation néolibérale, des stratégies de résistance et de lutte pour conserver ou retrouver le contrôle sur ces biens se sont développées (Nonini 2006 : 165). Dans le même temps, les propositions théoriques sur les communs ont mis en valeur des alternatives séduisantes face à la mainmise du marché ou de l’État sur ces ressources. Les anthropologues ont ainsi montré que ces luttes ne concernent pas seulement le contrôle des ressources matérielles mais également le contrôle des significations culturelles associées aux communs et aux processus qui les préservent ou les détruisent (Nonini 2006 : 165). Les stratégies et les perspectives antagonistes des différents groupes se disputant les communs sont ainsi devenues des objets de recherche riches pour l’anthropologie. Dans le contexte sud-américain où la surexploitation des ressources naturelles s’impose comme un nouveau paradigme économique, le constat que chacune des deux parties réutilise le concept de biens communs et de communs pour légitimer, d’un côté l’exploitation des ressources naturelles, et de l’autre la lutte contre cette exploitation, rappelle la nécessité de repenser les fondements ontologiques de chacune de ces deux façons de concevoir la relation entre les humains et le monde naturel. Dans ce cadre, les peuples autochtones nous invitent plutôt à penser ces confrontations ontologiques à travers le concept d’« incommuns » ; celui-ci révèlerait plutôt l’existence et la persistance d’une certaine incompatibilité entre différentes façons d’être au monde. En effet, alors que les entreprises extractrices font reposer leurs justifications sur la distinction entre nature et culture, et plus précisément sur le contrôle de la nature par les êtres humains, les peuples autochtones de leur côté se perçoivent en continuité avec le monde naturel, engagé dans une relation réciproque avec lui et dans l’obligation de le protéger (Blaser et De La Cadena 2017 : 186-187).
APA, Harvard, Vancouver, ISO, and other styles
38

Van der Linden, Bruno. "Numéro 68 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15543.

Full text
Abstract:
Depuis la déclaration commune des ministres régionaux Marcourt et Vandenbroucke, le débat sur la régionalisation (ou décentralisation) des politiques du marché du travail n'a guère progressé. On peut même parler d'enlisement. Or, le choix du bon niveau d’intervention publique importe si l'on se soucie de l'efficacité de cette intervention. On peut rechercher la centralisation ou, à l'opposé, la décentralisation par principe ou par idéologie. Ce n'est pas acceptable si la recherche d'efficacitéest l'objectif. Il y a en revanche des arguments pertinents en faveur de la centralisation et d'autres en défaveur de celle-ci. Ces arguments sont de nature économique si tant est que le qualificatif "économique" est bien compris: la répartition efficace des interventions publiques est celle qui garantit le niveau de bien-être le plus élevé possible tenant compte des ressources collectives disponibles. Ce bien-être grandit d'une part si, à ressources collectives données, on rencontre mieux les attentes et besoins des citoyens (leurs "préférences"). Dans le contexte du marché du travail, cela se traduit notamment par moins de pauvreté et de chômage involontaire et une meilleure assurance face aux risques. D'autre part, dans certains cas, le choix du bon niveau d'intervention agit directement sur les ressources collectives requises. Epargner des ressources permet de les affecter ailleurs et l'on sait à quel point les besoins sont nombreux ! Ce numéro de Regards économiques identifie donc une liste d'arguments et les illustre à l'aide d'exemples. Pour chaque type d'intervention publique, une démarche rationnelle consisterait à évaluer la portée précise de chacun de ces arguments pour ou contre la décentralisation, pour ensuite établir un bilan de synthèse et décider. Cette démarche est difficile, mais possible et nécessaire. De manière très succincte, la décentralisation, qui peut prendre diverses formes, permet une meilleure prise en compte des spécificités locales en matière d'attentes et de besoins. En outre, l'intervention publique requiert la collecte d'information (par exemple sur la disponibilité des chômeurs à l’égard du marché du travail). Fréquemment, le coût de cette collecte est plus limité ou la qualité de l'information est meilleure lorsque l'intervention se situe à un niveau décentralisé. La décentralisation a aussi ses inconvénients. Lorsque, et c'est fréquent, les décisions prises par une région affectent le bien-être d'une autre (à titre d’exemple, la diffusion d’une offre d’emploi par un organisme régional de placement peut favoriser l’appariement entre ce poste vacant et un demandeur d’emploi d’une autre région), on a besoin au minimum d'une coordination, voire d'une centralisation. Par ailleurs, il arrive que l'on épargne des ressources en menant une intervention à un niveau géographique plus large (grâce à des "économies d'échelle"). De plus, tant que les facteurs responsables du chômage sont essentiellement des chocs aléatoires (conjoncture, innovations technologiques, etc.), une assurance-chômage nationale est mieux à même de diversifier les risques qu’une assurance organisée au niveau régional. Enfin, des cadres législatifs et réglementaires hétérogènes compliquent la mobilité géographique inter-régionale et la gestion des entreprises implantées sur plus d'une région. Ce numéro de Regards économiques applique enfin ces principes à la délicate question du contrôle des chômeurs. À quel niveau placer cette intervention publique compte tenu du rôle joué d'un côté par la sécurité sociale fédérale au niveau de l'assurance du risque de chômage et d'un autre côté par les régions en matières de politiques actives et de placement des chômeurs ? L'article n'a pas l'ambition de trancher le débat. En revanche, il cerne avec précision les considérations à mettre en balance.
APA, Harvard, Vancouver, ISO, and other styles
39

Van der Linden, Bruno. "Numéro 68 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2009.04.01.

Full text
Abstract:
Depuis la déclaration commune des ministres régionaux Marcourt et Vandenbroucke, le débat sur la régionalisation (ou décentralisation) des politiques du marché du travail n'a guère progressé. On peut même parler d'enlisement. Or, le choix du bon niveau d’intervention publique importe si l'on se soucie de l'efficacité de cette intervention. On peut rechercher la centralisation ou, à l'opposé, la décentralisation par principe ou par idéologie. Ce n'est pas acceptable si la recherche d'efficacitéest l'objectif. Il y a en revanche des arguments pertinents en faveur de la centralisation et d'autres en défaveur de celle-ci. Ces arguments sont de nature économique si tant est que le qualificatif "économique" est bien compris: la répartition efficace des interventions publiques est celle qui garantit le niveau de bien-être le plus élevé possible tenant compte des ressources collectives disponibles. Ce bien-être grandit d'une part si, à ressources collectives données, on rencontre mieux les attentes et besoins des citoyens (leurs "préférences"). Dans le contexte du marché du travail, cela se traduit notamment par moins de pauvreté et de chômage involontaire et une meilleure assurance face aux risques. D'autre part, dans certains cas, le choix du bon niveau d'intervention agit directement sur les ressources collectives requises. Epargner des ressources permet de les affecter ailleurs et l'on sait à quel point les besoins sont nombreux ! Ce numéro de Regards économiques identifie donc une liste d'arguments et les illustre à l'aide d'exemples. Pour chaque type d'intervention publique, une démarche rationnelle consisterait à évaluer la portée précise de chacun de ces arguments pour ou contre la décentralisation, pour ensuite établir un bilan de synthèse et décider. Cette démarche est difficile, mais possible et nécessaire. De manière très succincte, la décentralisation, qui peut prendre diverses formes, permet une meilleure prise en compte des spécificités locales en matière d'attentes et de besoins. En outre, l'intervention publique requiert la collecte d'information (par exemple sur la disponibilité des chômeurs à l’égard du marché du travail). Fréquemment, le coût de cette collecte est plus limité ou la qualité de l'information est meilleure lorsque l'intervention se situe à un niveau décentralisé. La décentralisation a aussi ses inconvénients. Lorsque, et c'est fréquent, les décisions prises par une région affectent le bien-être d'une autre (à titre d’exemple, la diffusion d’une offre d’emploi par un organisme régional de placement peut favoriser l’appariement entre ce poste vacant et un demandeur d’emploi d’une autre région), on a besoin au minimum d'une coordination, voire d'une centralisation. Par ailleurs, il arrive que l'on épargne des ressources en menant une intervention à un niveau géographique plus large (grâce à des "économies d'échelle"). De plus, tant que les facteurs responsables du chômage sont essentiellement des chocs aléatoires (conjoncture, innovations technologiques, etc.), une assurance-chômage nationale est mieux à même de diversifier les risques qu’une assurance organisée au niveau régional. Enfin, des cadres législatifs et réglementaires hétérogènes compliquent la mobilité géographique inter-régionale et la gestion des entreprises implantées sur plus d'une région. Ce numéro de Regards économiques applique enfin ces principes à la délicate question du contrôle des chômeurs. À quel niveau placer cette intervention publique compte tenu du rôle joué d'un côté par la sécurité sociale fédérale au niveau de l'assurance du risque de chômage et d'un autre côté par les régions en matières de politiques actives et de placement des chômeurs ? L'article n'a pas l'ambition de trancher le débat. En revanche, il cerne avec précision les considérations à mettre en balance.
APA, Harvard, Vancouver, ISO, and other styles
40

Bodart, Vincent, and Sébastien Fontenay. "Numéro 133 - juin 2017." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14363.

Full text
Abstract:
Alors que, depuis 1996, la compétitivité de la Belgique fait l’objet d’une attention toute particulière, nous montrons dans ce numéro de Regards économiques que son impact sur la dynamique des exportations de la Belgique est effectivement déterminant, tout en étant cependant limité. La compétitivité de la Belgique est un sujet souvent au-devant de l’actualité, en raison des discussions (parfois âpres) qui ont lieu à son sujet entre les partenaires sociaux. La Belgique étant une petite économie ouverte, son commerce extérieur a effectivement un impact considérable sur ses performances économiques et l’évolution de sa situation conjoncturelle. La compétitivité et les performances à l’exportation de la Belgique constituent ainsi l’objet de l’étude qui est présentée dans ce numéro de Regards économiques. Notre étude vise notamment à examiner si, comment cela est souvent présupposé, la compétitivité est un facteur déterminant de l’évolution des exportations belges. Notre étude confirme que la compétitivité joue effectivement un rôle déterminant dans l’évolution des exportations belges de biens et services. Notre étude conclut également que les effets de compétitivité se marquent davantage à travers le prix relatif des exportations belges par rapport à celui de ses concurrents étrangers plutôt qu’à travers le niveau relatif du coût salarial. Comme déjà suggéré par d’autres études, cela indique que la sauvegarde de la compétitivité implique de veiller à contrôler l’évolution de tous les facteurs qui interviennent dans la formation des prix à l’exportation (coût unitaire du travail, prix des intrants intermédiaires, marge de profit) et de ne pas se concentrer uniquement sur le contrôle des coûts salariaux. Bien que le facteur «compétitivité» soit déterminant, il apparaît toutefois qu’il n’a qu’un rôle limité dans l’évolution des exportations de la Belgique. La plus grande partie de l’évolution des exportations est en effet déterminée par l’évolution des marchés potentiels à l’exportation de la Belgique, c’est-à-dire par la demande étrangère qui résulte de la croissance économique des pays vers lesquels les entreprises belges exportent. Nous en concluons que, dans un contexte de faible conjoncture, promouvoir la modération salariale pourrait ne pas avoir les bienfaits attendus sur la croissance économique s’il s’avère que l’impact positif de la modération salariale sur les exportations n’est pas suffisamment important pour compenser son impact négatif sur la consommation des ménages. Alors que les discussions politiques sur les faiblesses de la Belgique en matière d’exportation tournent essentiellement autour de la compétitivité, notre analyse tend à suggérer que le principal problème est avant tout un manque de dynamisme des exportations. En effet, alors que la demande étrangère est le principal déterminant de la croissance des exportations, il apparaît que, pour des raisons autres que celles liées à la compétitivité, tout accroissement de la demande mondiale ne se répercute qu’à environ 70 % dans la croissance des exportations. Comme certaines études l’ont suggéré, la réponse à ce problème se situe en partie dans un meilleur positionnement des exportations en matière de produits et de destination géographique. Plus généralement, cela implique, comme le soulignait la Banque Nationale de Belgique dans son Rapport annuel 2012, de renforcer «l’attractivité de l’économie et son potentiel d’innovation et d’adaptation, à travers la quantité et la qualité du capital humain, la qualité, le design et la différenciation de produits offerts, le marketing de ces produits et l’organisation des processus de production».
APA, Harvard, Vancouver, ISO, and other styles
41

Bodart, Vincent, and Sébastien Fontenay. "Numéro 133 - juin 2017." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2017.06.01.

Full text
Abstract:
Alors que, depuis 1996, la compétitivité de la Belgique fait l’objet d’une attention toute particulière, nous montrons dans ce numéro de Regards économiques que son impact sur la dynamique des exportations de la Belgique est effectivement déterminant, tout en étant cependant limité. La compétitivité de la Belgique est un sujet souvent au-devant de l’actualité, en raison des discussions (parfois âpres) qui ont lieu à son sujet entre les partenaires sociaux. La Belgique étant une petite économie ouverte, son commerce extérieur a effectivement un impact considérable sur ses performances économiques et l’évolution de sa situation conjoncturelle. La compétitivité et les performances à l’exportation de la Belgique constituent ainsi l’objet de l’étude qui est présentée dans ce numéro de Regards économiques. Notre étude vise notamment à examiner si, comment cela est souvent présupposé, la compétitivité est un facteur déterminant de l’évolution des exportations belges. Notre étude confirme que la compétitivité joue effectivement un rôle déterminant dans l’évolution des exportations belges de biens et services. Notre étude conclut également que les effets de compétitivité se marquent davantage à travers le prix relatif des exportations belges par rapport à celui de ses concurrents étrangers plutôt qu’à travers le niveau relatif du coût salarial. Comme déjà suggéré par d’autres études, cela indique que la sauvegarde de la compétitivité implique de veiller à contrôler l’évolution de tous les facteurs qui interviennent dans la formation des prix à l’exportation (coût unitaire du travail, prix des intrants intermédiaires, marge de profit) et de ne pas se concentrer uniquement sur le contrôle des coûts salariaux. Bien que le facteur «compétitivité» soit déterminant, il apparaît toutefois qu’il n’a qu’un rôle limité dans l’évolution des exportations de la Belgique. La plus grande partie de l’évolution des exportations est en effet déterminée par l’évolution des marchés potentiels à l’exportation de la Belgique, c’est-à-dire par la demande étrangère qui résulte de la croissance économique des pays vers lesquels les entreprises belges exportent. Nous en concluons que, dans un contexte de faible conjoncture, promouvoir la modération salariale pourrait ne pas avoir les bienfaits attendus sur la croissance économique s’il s’avère que l’impact positif de la modération salariale sur les exportations n’est pas suffisamment important pour compenser son impact négatif sur la consommation des ménages. Alors que les discussions politiques sur les faiblesses de la Belgique en matière d’exportation tournent essentiellement autour de la compétitivité, notre analyse tend à suggérer que le principal problème est avant tout un manque de dynamisme des exportations. En effet, alors que la demande étrangère est le principal déterminant de la croissance des exportations, il apparaît que, pour des raisons autres que celles liées à la compétitivité, tout accroissement de la demande mondiale ne se répercute qu’à environ 70 % dans la croissance des exportations. Comme certaines études l’ont suggéré, la réponse à ce problème se situe en partie dans un meilleur positionnement des exportations en matière de produits et de destination géographique. Plus généralement, cela implique, comme le soulignait la Banque Nationale de Belgique dans son Rapport annuel 2012, de renforcer «l’attractivité de l’économie et son potentiel d’innovation et d’adaptation, à travers la quantité et la qualité du capital humain, la qualité, le design et la différenciation de produits offerts, le marketing de ces produits et l’organisation des processus de production».
APA, Harvard, Vancouver, ISO, and other styles
42

Wong, Daniel, Andrea Feere, Vandad Yousefi, Nilufar Partovi, and Karen Dahri. "How Hospital Pharmacists Spend Their Time: A Work-Sampling Study." Canadian Journal of Hospital Pharmacy 73, no. 4 (October 19, 2020). http://dx.doi.org/10.4212/cjhp.v73i4.3026.

Full text
Abstract:
Background: The expanded scope of pharmacist practice allows for increased comprehensive care and improved patient outcomes at the cost of increased workload and time demands on pharmacists. There are limited descriptive metrics for the time that pharmacists spend on various activities during the workday. An evaluation of the time spent on different activities would allow for potential optimization of workflow, with a focus primarily on devoting more time to direct patient care activities.Objective: To quantify the amount of time that hospital and clinic-based pharmacists spend on clinical activities, including direct and indirect patient care, and nonclinical activities. Methods: An observational fixed-interval, work-sampling study was conducted at 2 hospitals, Vancouver General Hospital and Richmond Hospital, both in British Columbia. Trained observers followed individual pharmacists for a set period. The pharmacists’ activities were recorded in 1-min increments and classified into various categories. Results: In total, 2044 min of activity, involving 11 individual pharmacists, were observed. Clinical activities accounted for 82% of total time, 12% (251 min) on direct patient care activities and 70% (1434 min) on indirect patient care activities. The most common direct clinical activity was conducting patient medication history interviews (73 min; 4% of total time), and the most common indirect clinical activity was assessment and evaluation (585 min; 29%). The most common nonclinical activities were walking (91 min; 4% of total time), looking for something (57 min; 3%), and teaching pharmacy students on practicum (60 min; 3%). Conclusions: Although the pharmacists spent most of their time on clinical activities, face-to-face time with patients (direct clinical activities) seemed low, which highlights an area for potential improvement. The pharmacists spent much more time documenting information in pharmacy-specific monitoring forms (i.e., assessment and evaluation) than they spent writing notes or recommendations in the chart, for sharing with other health care professionals. Keywords: time, work sampling, pharmacist, activitiesRÉSUMÉContexte : L’élargissement du champ d’activité du pharmacien permet d’améliorer la qualité des soins et les résultats pour le patient au prix d’une augmentation de la charge et du temps de travail des pharmaciens. Il existe peu de mesures descriptives temps que les pharmaciens consacrent à leurs diverses activités de la journée. Une évaluation de ce temps permettrait d’optimiser le flux de travail afin que l’accent puisse être mis principalement sur l’augmentation du temps réservé aux activités de soins directs des patients.Objectif : Quantifier le temps que passent les pharmaciens des hôpitaux et des cliniques à effectuer des activités cliniques, y compris des activités de soins directs et indirects, ainsi que des activités non cliniques.Méthodes : Une étude observationnelle par échantillonnage à intervalles fixes a été menée dans deux hôpitaux : le Vancouver General Hospital et le Richmond Hospital, tous deux en Colombie-Britannique. Des observateurs formés ont suivi chaque pharmacien en particulier pendant une période déterminée. Leurs activités étaient consignées par tranches d’une minute et classées en diverses catégories.Résultats : L’observation a porté sur des activités totalisant 2044 minutes réparties entre 11 pharmaciens. Les activités cliniques représentaient 82 % du temps total, 12 % (251 min) des activités étaient consacrées aux soins directs et 70 % (1434 min), aux soins indirects. L’activité clinique directe la plus courante consistait à mener des entrevues portant sur les antécédents pharmacothérapeutiques des patients (73 min, 4 % du temps total) et l’activité clinique indirecte la plus courante était l’évaluation (585 min, 29 %). Les activités non cliniques les plus courantes étaient la marche (91 min, 4 % du temps total), la recherche de quelque chose (57 min, 3 %) et la formation des étudiants stagiaires en pharmacie (60 min, 3 %).Conclusions : Bien que les pharmaciens consacrent la plus grande partie de leur temps à des activités cliniques, le temps passé auprès des patients (activités cliniques directes) semblait faible, ce qui indique une possibilité d’amélioration. Les pharmaciens passent beaucoup plus de temps à consigner de l’information dans des formulaires de contrôle spécifiques à la pharmacie (c.-à-d. évaluation) qu’à rédiger des notes ou des recommandations dans les tableaux pour les partager avec les autres professionnels de la santé.Mots-clés : temps, échantillon de travail, pharmacien, activités
APA, Harvard, Vancouver, ISO, and other styles
43

Dejemeppe, Muriel, and Bruno Van der Linden. "Numéro 40 - avril 2006." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15873.

Full text
Abstract:
Ce numéro de Regards économiques se concentre sur divers aspects du "plan Marshall" (ci-dessous "le plan") qui ont un lien direct avec le marché du travail en Wallonie. Il les situe par rapport à son fonctionnement, par rapport à certaines politiques fédérales et à la problématique salariale en Belgique et dans ses régions. Face aux difficultés à pourvoir certains types d'emplois vacants en Wallonie et au manque simultané d'opportunités d'emploi, quels sont les remèdes ? Où le plan peut-il agir ? “Le problème de la Wallonie, c'est le manque d'offres d'emploi”, entend-on dire souvent. D'un autre côté, depuis quelques années, est apparue la problématique des postes vacants difficiles à pourvoir (ou des "fonctions critiques"). Bien que la coexistence de ces deux problèmes n'ait rien de surprenant, on a de bonnes raisons de se soucier simultanément de chacun d'eux. Divers mécanismes sont à prendre en compte. Le “plan” agit sur certains d'entre eux mais doit être complété par des outils fédéraux. Le plan devrait par divers canaux stimuler à terme le nombre de postes vacants créés (renforcement de l'innovation, stimulation de la création d'activités et création de “pôles de compétitivité”). Il est trop tôt cependant pour en juger. L'essentiel dépendra de la capacité de nos institutions publiques et privées à mettre ces actions en œuvre avec efficacité. Dans ses domaines de compétence, le "plan" prévoit des mesures qui devraient favoriser la conciliation entre vie familiale et professionnelle (renforcement des capacités d'accueil de jeunes enfants et d'aide «aux personnes dépendantes» par le recrutement de près de 2000 emplois subventionnés dans le secteur non marchand). Ceci devrait faciliter l'acceptation d'une offre d'emploi. Le FOREM et des organismes privés cherchent à faciliter la rencontre entre demandeurs d'emplois et postes vacants. Le plan prévoit un renforcement des moyens du FOREM à cet égard mais uniquement en faveur des stagiaires en formation au sein du FOREM lui-même. Cette restriction est difficile à justifier. Comme les difficultés de recrutement tiennent aussi à un déficit de compétence, le "plan" prévoit un renforcement de l'effort de formation, en particulier pour les fonctions identifiées comme critiques et dans les secteurs liés aux pôles de compétitivité. Cette sélectivité apparaît cohérente. Divers instruments renforcés par le "plan" (le Plan Formation-Insertion, l'apprentissage des langues, l'enseignement en alternance) ne sont pas nouveaux. Ils ont fait parfois l'objet d'évaluations critiques. On attend des décideurs qu'ils prennent la pleine mesure des conclusions essentielles de celles-ci parallèlement à l'octroi de moyens supplémentaires. Le "plan" intègre la création d'un instrument nouveau par la Communauté française: les Centres de Technologies Avancées. Il s'agit de labelliser et de renforcer les moyens d'établissements scolaires spécialisés dans des secteurs porteurs d'emploi. Ces centres s'ajoutent à une autre structure, créée assez récemment par la Région wallonne et dénommée les Centres de compétence. Etant donné la rapidité des évolutions technologiques, l'enjeu est de taille. La sélection des projets et la coordination entre la Région et la Communauté seront ici aussi déterminants. La difficulté à pourvoir des emplois vacants est aussi liée à des facteurs non monétaires nuisibles à la qualité de l'emploi (horaires difficiles, risques d'accident de travail, etc.), au statut social associé ou non à l'emploi et aux images que l'on a de la fonction offerte (voir la récente étude du DULBEA sur ce sujet). Dans le cadre du "plan", le FOREM a récemment mis en place un “plan d'action”qui vise notamment à agir sur certains de ces aspects. Sans oublier les actions régionales dans le domaine du transport public et du logement, qui ne relèvent pas du "plan", pour promouvoir davantage une meilleure rencontre entre les emplois vacants et les demandeurs d'emploi, la Région wallonne doit en particulier s'appuyer sur les instruments suivants, qui sont essentiellement du ressort de l'Etat fédéral : On sait que les gains monétaires immédiats en cas de reprise d'emploi se sont accrus dans bien des cas entre 1999 et 2003. Ces gains paraissent toutefois demeurer fort faibles en cas de reprise d'un emploi à bas salaire et à temps partiel. Le gouvernement fédéral s'est engagé à adapter périodiquement les prestations de remplacement de revenus des salariés. Face à cela, pour éviter le développement de désincitants à la reprise d'emploi, toute modification de la (para)fiscalité devrait avoir un double souci : (a) elle devrait atteindre les catégories au bas de l'échelle des revenus du travail d'une manière immédiatement tangible pour celles-ci (via en particulier les cotisations personnelles ou le précompte professionnel); (b) cependant, on ne peut alléger la (para)fiscalité au bas de l'échelle des revenus sans un ajustement dans le même sens pour les revenus plus élevés sous peine de créer des incitations perverses qui réduiraient la base taxable. Il est possible que le plan d'activation du comportement de recherche d'emploi entraîne une augmentation de l'effort de recherche. Les évaluations sont en cours. Pour autant qu'elles stimulent effectivement l'effort de recherche d'emploi, les politiques actives rendant celui-ci plus efficace (conseillers en recherche d'emploi, ateliers de recherche active, stage de mise en situation professionnelle) peuvent stimuler une embauche durable, ainsi que l'a montré une évaluation en France. Le plan d'accompagnement des chômeurs pourrait affecter le comportement de recherche d'emploi par ce canal et pas uniquement par le contrôle qu'il exerce. Coûts salariaux et productivité : Faut-il régionaliser la formation des salaires, alléger le coût du travail ? Le “plan” n'aborde qu'incidemment la problématique du coût du travail. A-t-il tort ? En soi, non, car la matière est fédérale. Cette problématique et celle de la productivité sont néanmoins en toile de fond du "plan" et de bien des débats. Nous avons donc estimé utile de consacrer un part de ce numéro à ces aspects. Sur base des récentes statistiques de l'ICN, comparés à la Wallonie, le coût salarial par personne est dans la plupart des secteurs supérieur en Flandre (en moyenne, l'écart est de 8 % en 2003) mais la productivité du travail est dans la plupart des secteurs supérieure en Flandre (en moyenne, l'écart est de 14 % en 2004). En combinant ces informations pour 2003, on conclut que le coût salarial par unité de valeur ajoutée est en moyenne inférieur de 4,5 % en Flandre. Ces moyennes cachent néanmoins une hétérogénéité sectorielle importante. De ce constat, on peut être tenté de conclure qu'il faudrait abandonner la formation des salaires au niveau (interprofessionnel et sectoriel) fédéral au profit d'une négociation à un niveau régional ou local. Ceci devrait conduire à une meilleure prise en compte des conditions locales du marché du travail lors de la négociation salariale. Nous émettons des doutes sur l'efficacité d'une telle approche. Il est bien établi que les salaires réagissent faiblement au niveau du chômage en Belgique. Rien ne permet de penser qu'une forme de régionalisation modifierait l'ampleur de cette saine réaction. Plus fondamentalement, les résultats d'une négociation se jugent par comparaison aux résultats obtenus par d'autres négociations salariales. Si donc on découpe les commissions paritaires nationales en commissions (sous-)régionales, on doit s'attendre à un effet de comparaison très puissant entre les ex-membres de la même commission nationale. Une régionalisation des négociations est alors moins efficace du point de vue de l'emploi qu'une négociation nationale qui prend en compte les spécificités régionales. Ceci est vrai tant pour la Flandre que pour les autres régions. Sans être le seul facteur pertinent (voir notamment le numéro 41 de Regards économiques relatif à la fiscalité), le coût du travail est un facteur central pour les régions belges. Outre le ciblage inadéquat des allégements structurels (fédéraux) de cotisations patronales de sécurité sociale, nous rappelons que des subventions temporaires à l'embauche présentent une efficacité du point de vue de l'insertion en emploi pour autant que le ciblage soit adéquat et la durée de subvention courte (un an devrait être un ordre de grandeur). La région wallonne a de longue date privilégié une autre option : les créations directes et/ou la subvention forte et durable d'emplois réservés aux chômeurs. Le "plan" prolonge cette option par le subventionnement de 2000 emplois supplémentaires (voir point b ci-dessus). Les secteurs bénéficiaires – dans une large mesure les secteurs publics et non-marchand – reçoivent ainsi un soutien parfois essentiel. Il nous apparaît que cette dernière motivation domine en pratique. Nous ne voyons donc pas les raisons de réserver ces emplois à des personnes disposant de statuts spécifiques – souvent complexes à définir. Que faut-il faire et, surtout, ne pas faire en matière d’évaluation des politiques d’emploi ? L'enjeu de l'évaluation est proclamé de plus en plus souvent, en particulier par le "plan". Mais est-on bien conscient de ce que "évaluer" veut dire ? Nous sommes convaincus du contraire. Le «nombre de contrats signés», le «nombre de bénéficiaires», le «parcours des bénéficiaires sur le marché du travail» et même une comparaison grossière entre ces parcours et ceux d'un vague groupe de contrôle sont autant d’indicateurs descriptifs intéressants. Ils ne permettent cependant pas de se prononcer sur l’effet du dispositif sur les chances d’insertion des demandeurs d’emploi. Des méthodes plus sophistiquées et plus fiables existent mais elles ne s'improvisent pas. Elles requièrent du temps et un savoir-faire pointu. Nous préconisons donc ceci : Il y a lieu de penser l’évaluation d’un programme avant même son lancement. Il faudrait interdire le lancement d'une nouvelle politique avant que le processus d'évaluation n'ait été défini et reconnu pertinent par une instance indépendante. L'Institut Wallon de l'Evaluation, de la Prospective et de la Statistique (IWEPS) doit être doté de moyens substantiellement plus importants pour qu'il puisse notamment mener à bien ses missions d'évaluation.
APA, Harvard, Vancouver, ISO, and other styles
44

Dejemeppe, Muriel, and Bruno Van der Linden. "Numéro 40 - avril 2006." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2006.04.01.

Full text
Abstract:
Ce numéro de Regards économiques se concentre sur divers aspects du "plan Marshall" (ci-dessous "le plan") qui ont un lien direct avec le marché du travail en Wallonie. Il les situe par rapport à son fonctionnement, par rapport à certaines politiques fédérales et à la problématique salariale en Belgique et dans ses régions. Face aux difficultés à pourvoir certains types d'emplois vacants en Wallonie et au manque simultané d'opportunités d'emploi, quels sont les remèdes ? Où le plan peut-il agir ? “Le problème de la Wallonie, c'est le manque d'offres d'emploi”, entend-on dire souvent. D'un autre côté, depuis quelques années, est apparue la problématique des postes vacants difficiles à pourvoir (ou des "fonctions critiques"). Bien que la coexistence de ces deux problèmes n'ait rien de surprenant, on a de bonnes raisons de se soucier simultanément de chacun d'eux. Divers mécanismes sont à prendre en compte. Le “plan” agit sur certains d'entre eux mais doit être complété par des outils fédéraux. Le plan devrait par divers canaux stimuler à terme le nombre de postes vacants créés (renforcement de l'innovation, stimulation de la création d'activités et création de “pôles de compétitivité”). Il est trop tôt cependant pour en juger. L'essentiel dépendra de la capacité de nos institutions publiques et privées à mettre ces actions en œuvre avec efficacité. Dans ses domaines de compétence, le "plan" prévoit des mesures qui devraient favoriser la conciliation entre vie familiale et professionnelle (renforcement des capacités d'accueil de jeunes enfants et d'aide «aux personnes dépendantes» par le recrutement de près de 2000 emplois subventionnés dans le secteur non marchand). Ceci devrait faciliter l'acceptation d'une offre d'emploi. Le FOREM et des organismes privés cherchent à faciliter la rencontre entre demandeurs d'emplois et postes vacants. Le plan prévoit un renforcement des moyens du FOREM à cet égard mais uniquement en faveur des stagiaires en formation au sein du FOREM lui-même. Cette restriction est difficile à justifier. Comme les difficultés de recrutement tiennent aussi à un déficit de compétence, le "plan" prévoit un renforcement de l'effort de formation, en particulier pour les fonctions identifiées comme critiques et dans les secteurs liés aux pôles de compétitivité. Cette sélectivité apparaît cohérente. Divers instruments renforcés par le "plan" (le Plan Formation-Insertion, l'apprentissage des langues, l'enseignement en alternance) ne sont pas nouveaux. Ils ont fait parfois l'objet d'évaluations critiques. On attend des décideurs qu'ils prennent la pleine mesure des conclusions essentielles de celles-ci parallèlement à l'octroi de moyens supplémentaires. Le "plan" intègre la création d'un instrument nouveau par la Communauté française: les Centres de Technologies Avancées. Il s'agit de labelliser et de renforcer les moyens d'établissements scolaires spécialisés dans des secteurs porteurs d'emploi. Ces centres s'ajoutent à une autre structure, créée assez récemment par la Région wallonne et dénommée les Centres de compétence. Etant donné la rapidité des évolutions technologiques, l'enjeu est de taille. La sélection des projets et la coordination entre la Région et la Communauté seront ici aussi déterminants. La difficulté à pourvoir des emplois vacants est aussi liée à des facteurs non monétaires nuisibles à la qualité de l'emploi (horaires difficiles, risques d'accident de travail, etc.), au statut social associé ou non à l'emploi et aux images que l'on a de la fonction offerte (voir la récente étude du DULBEA sur ce sujet). Dans le cadre du "plan", le FOREM a récemment mis en place un “plan d'action”qui vise notamment à agir sur certains de ces aspects. Sans oublier les actions régionales dans le domaine du transport public et du logement, qui ne relèvent pas du "plan", pour promouvoir davantage une meilleure rencontre entre les emplois vacants et les demandeurs d'emploi, la Région wallonne doit en particulier s'appuyer sur les instruments suivants, qui sont essentiellement du ressort de l'Etat fédéral : On sait que les gains monétaires immédiats en cas de reprise d'emploi se sont accrus dans bien des cas entre 1999 et 2003. Ces gains paraissent toutefois demeurer fort faibles en cas de reprise d'un emploi à bas salaire et à temps partiel. Le gouvernement fédéral s'est engagé à adapter périodiquement les prestations de remplacement de revenus des salariés. Face à cela, pour éviter le développement de désincitants à la reprise d'emploi, toute modification de la (para)fiscalité devrait avoir un double souci : (a) elle devrait atteindre les catégories au bas de l'échelle des revenus du travail d'une manière immédiatement tangible pour celles-ci (via en particulier les cotisations personnelles ou le précompte professionnel); (b) cependant, on ne peut alléger la (para)fiscalité au bas de l'échelle des revenus sans un ajustement dans le même sens pour les revenus plus élevés sous peine de créer des incitations perverses qui réduiraient la base taxable. Il est possible que le plan d'activation du comportement de recherche d'emploi entraîne une augmentation de l'effort de recherche. Les évaluations sont en cours. Pour autant qu'elles stimulent effectivement l'effort de recherche d'emploi, les politiques actives rendant celui-ci plus efficace (conseillers en recherche d'emploi, ateliers de recherche active, stage de mise en situation professionnelle) peuvent stimuler une embauche durable, ainsi que l'a montré une évaluation en France. Le plan d'accompagnement des chômeurs pourrait affecter le comportement de recherche d'emploi par ce canal et pas uniquement par le contrôle qu'il exerce. Coûts salariaux et productivité : Faut-il régionaliser la formation des salaires, alléger le coût du travail ? Le “plan” n'aborde qu'incidemment la problématique du coût du travail. A-t-il tort ? En soi, non, car la matière est fédérale. Cette problématique et celle de la productivité sont néanmoins en toile de fond du "plan" et de bien des débats. Nous avons donc estimé utile de consacrer un part de ce numéro à ces aspects. Sur base des récentes statistiques de l'ICN, comparés à la Wallonie, le coût salarial par personne est dans la plupart des secteurs supérieur en Flandre (en moyenne, l'écart est de 8 % en 2003) mais la productivité du travail est dans la plupart des secteurs supérieure en Flandre (en moyenne, l'écart est de 14 % en 2004). En combinant ces informations pour 2003, on conclut que le coût salarial par unité de valeur ajoutée est en moyenne inférieur de 4,5 % en Flandre. Ces moyennes cachent néanmoins une hétérogénéité sectorielle importante. De ce constat, on peut être tenté de conclure qu'il faudrait abandonner la formation des salaires au niveau (interprofessionnel et sectoriel) fédéral au profit d'une négociation à un niveau régional ou local. Ceci devrait conduire à une meilleure prise en compte des conditions locales du marché du travail lors de la négociation salariale. Nous émettons des doutes sur l'efficacité d'une telle approche. Il est bien établi que les salaires réagissent faiblement au niveau du chômage en Belgique. Rien ne permet de penser qu'une forme de régionalisation modifierait l'ampleur de cette saine réaction. Plus fondamentalement, les résultats d'une négociation se jugent par comparaison aux résultats obtenus par d'autres négociations salariales. Si donc on découpe les commissions paritaires nationales en commissions (sous-)régionales, on doit s'attendre à un effet de comparaison très puissant entre les ex-membres de la même commission nationale. Une régionalisation des négociations est alors moins efficace du point de vue de l'emploi qu'une négociation nationale qui prend en compte les spécificités régionales. Ceci est vrai tant pour la Flandre que pour les autres régions. Sans être le seul facteur pertinent (voir notamment le numéro 41 de Regards économiques relatif à la fiscalité), le coût du travail est un facteur central pour les régions belges. Outre le ciblage inadéquat des allégements structurels (fédéraux) de cotisations patronales de sécurité sociale, nous rappelons que des subventions temporaires à l'embauche présentent une efficacité du point de vue de l'insertion en emploi pour autant que le ciblage soit adéquat et la durée de subvention courte (un an devrait être un ordre de grandeur). La région wallonne a de longue date privilégié une autre option : les créations directes et/ou la subvention forte et durable d'emplois réservés aux chômeurs. Le "plan" prolonge cette option par le subventionnement de 2000 emplois supplémentaires (voir point b ci-dessus). Les secteurs bénéficiaires – dans une large mesure les secteurs publics et non-marchand – reçoivent ainsi un soutien parfois essentiel. Il nous apparaît que cette dernière motivation domine en pratique. Nous ne voyons donc pas les raisons de réserver ces emplois à des personnes disposant de statuts spécifiques – souvent complexes à définir. Que faut-il faire et, surtout, ne pas faire en matière d’évaluation des politiques d’emploi ? L'enjeu de l'évaluation est proclamé de plus en plus souvent, en particulier par le "plan". Mais est-on bien conscient de ce que "évaluer" veut dire ? Nous sommes convaincus du contraire. Le «nombre de contrats signés», le «nombre de bénéficiaires», le «parcours des bénéficiaires sur le marché du travail» et même une comparaison grossière entre ces parcours et ceux d'un vague groupe de contrôle sont autant d’indicateurs descriptifs intéressants. Ils ne permettent cependant pas de se prononcer sur l’effet du dispositif sur les chances d’insertion des demandeurs d’emploi. Des méthodes plus sophistiquées et plus fiables existent mais elles ne s'improvisent pas. Elles requièrent du temps et un savoir-faire pointu. Nous préconisons donc ceci : Il y a lieu de penser l’évaluation d’un programme avant même son lancement. Il faudrait interdire le lancement d'une nouvelle politique avant que le processus d'évaluation n'ait été défini et reconnu pertinent par une instance indépendante. L'Institut Wallon de l'Evaluation, de la Prospective et de la Statistique (IWEPS) doit être doté de moyens substantiellement plus importants pour qu'il puisse notamment mener à bien ses missions d'évaluation.
APA, Harvard, Vancouver, ISO, and other styles
45

Cockx, Bart, Muriel Dejemeppe, and Bruno Van der Linden. "Numéro 85 (fr) - février 2011." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15113.

Full text
Abstract:
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
APA, Harvard, Vancouver, ISO, and other styles
46

Cockx, Bart, Muriel Dejemeppe, and Bruno Van der Linden. "Numéro 85 (fr) - février 2011." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2011.02.01.

Full text
Abstract:
À l’initiative du gouvernement fédéral, on a assisté depuis 2004 à des changements majeurs dans le cadre de l’assurance-chômage en Belgique. Le principe d’octroi d’allocations d’assurance à durée illimitée a en soi été renforcé par l’abolition progressive de l’article 80, qui limitait uniquement la durée de l’indemnisation des chômeurs cohabitants. Parallèlement, s’est mis en place le dispositif d’Activation du Comportement de Recherche d’emploi (ACR), qui consiste à convoquer les chômeurs indemnisés pour des entretiens individuels périodiques durant lesquels un facilitateur de l’ONEM évalue leurs activités de recherche d’emploi. L’introduction de l’ACR implique que toutes les catégories de chômeurs courent un risque de réduction ou de suspension, temporaire ou non, des allocations de chômage en raison d’une intensité de recherche insuffisante. Précisons que la procédure d’ACR a été introduite en étapes, par catégorie d’âge : à partir de juillet 2004, les moins de 30 ans étaient concernés par la procédure, à partir de juillet 2005, les moins de 40 ans, et à partir de juillet 2006, les moins de 50 ans. Ce nouveau plan reste controversé : «chasse aux chômeurs» pour les uns, ingrédient essentiel de toute politique de réduction du chômage pour les autres. Le plan d’accompagnement et de suivi des chômeurs favorise-t-il un retour plus rapide à l’emploi ? Et si oui, dans toutes les régions, pour tous les types de demandeurs d’emploi, au détriment de la qualité des emplois acceptés ? Les étapes de l’ACRUn élément essentiel de l’ACR est l’envoi d’une lettre d’avertissement environ 8 mois avant le premier entretien en vue d’informer le chômeur indemnisé de ses obligations et du déroulement de la procédure de contrôle. L’envoi de cette lettre s’effectue après une durée d’inoccupation mesurée de manière spécifique et variable selon l’âge (7 mois sous l’âge de 25 ans, 13 mois au-delà). Si les efforts de recherche d’emploi sont jugés insuffisants lors du premier entretien d’évaluation, le chômeur n’est pas encore sanctionné mais un plan d’action est mis en place. Environ quatre mois plus tard, un deuxième entretien a lieu. Une évaluation négative des efforts de recherche entraîne alors une sanction temporaire (réduction ou suspension des allocations de chômage) et la mise en place d’un second plan d’action. Si les efforts de recherche sont jugés une troisième fois insuffisants, une exclusion du droit aux allocations de chômage s’applique. Des procédures de recours sont prévues par la législation. L’évaluation de l’ACRL’essentiel de notre évaluation porte sur la population des chômeurs indemnisés âgés de 25 à 30 ans qui ont reçu une lettre d’avertissement de l’ONEM en 2004 dans le cadre de la procédure d’ACR et dont nous avons reconstitué le parcours sur le marché du travail jusque fin 2006. Nos résultats montrent que l’ACR accélère de manière significative leur transition du chômage vers l’emploi et ceci même bien avant que des entretiens d’évaluation ont lieu ou des sanctions sont imposées : 92 % de l’effet se réalise avant que les personnes concernées ne soient sanctionnées. Ceci se comprend par un effet d’anticipation. Les chômeurs accroissent leurs efforts de recherche afin d’éviter une évaluation (négative) et ses conséquences. L’effet est plus fort en Flandre qu’en Wallonie et à Bruxelles. Le contrôle de la recherche se montre donc surtout efficace là où les offres d’emplois sont abondantes. Dans ce cas, le contrôle s’avère même plus efficace pour un chômeur peu qualifié que qualifié. Sans perdre toute son efficacité, le contrôle semble cependant favoriser davantage l’embauche des travailleurs qualifiés là où les offres d’emploi sont plus rares. Pour les chômeurs qui retrouvent un emploi, le salaire obtenu est en moyenne plus faible en raison de l’ACR, mais la baisse est modeste. L’effet du relèvement de revenu engendré par l’accès plus rapide à l’emploi domine cette baisse de salaire. Pour les comptes de l’Etat, la mise en place de l’ACR engendre un gain modeste. Ce gain est en moyenne plus élevé que la baisse des perspectives de revenus du chômeur qui entre dans l’ACR. Pour aboutir à cette conclusion, nous prenons en compte le payement des allocations d’assurance et de revenu d’insertion diminuées des recettes fiscales et des cotisations sociales. Cet ensemble de conclusions ne peut être imprudemment extrapolé aux autres tranches d’âge concernées ultérieurement par l’ACR. Même sous l’hypothèse que nos conclusions qualitatives s’étendent à l’ensemble de la population actuellement visée par l’ACR (les moins de cinquante ans), elle n’est qu’une composante de la politique de lutte contre le chômage, qui, à elle seule et dans sa forme actuelle, ne pourrait avoir qu’un impact limité sur le chômage total au niveau du pays. En rythme de croisière, en 2009, quand toutes les classes d’âge en dessous de 50 ans sont concernées, par mois 2,5 % du stock de chômeurs complets indemnisés recevait l’avertissement de l’ACR. Vu cette faible proportion, il est évident que l’ACR n’est pas la panacée qui expliquerait la baisse significative du chômage total entre 2004 et 2008. L’analyse que nous avons menée sur le rôle possible de l’ACR dans l’évolution du chômage global montre que la baisse du chômage entre 2004 et 2008 vient principalement de l’amélioration de la conjoncture dans la période concernée. L’ACR y a contribué, mais vu le nombre relativement faible de chômeurs concernés et l’étalement de la politique sur de nombreux mois (durant lesquels nombre d’entre eux quitteraient le chômage même en l’absence de politique de contrôle), son rôle macroéconomique ne peut pas être exagéré. L’évolution du nombre de sanctions dans le cadre et en dehors de l’ACRAu niveau global encore, nous avons montré que les sanctions dans le cadre de l’ACR représentent une part croissante mais limitée du total de celles-ci. En 2009, l’ACR engendre un peu moins d’exclusions que l’article 80, qu’elle a progressivement remplacé et qui déterminait la fin de droit pour les seul(e)s cohabitant(e)s. Ceci ne peut occulter le constat que le niveau global des sanctions (tous motifs confondus) a beaucoup augmenté en Belgique et dans ses Régions (principalement en Wallonie) au cours de la seconde moitié de la décennie passée. L’augmentation des transferts d’information des organismes régionaux (FOREM, VDAB, ACTIRIS) vers l’ONEM (suite à l’accord de coopération de 2004) et le développement du croisement des informations disponibles dans les divers fichiers de la Sécurité Sociale sont des facteurs d’explication importants de ces évolutions. En 2009, le nombre de transmissions par demandeur d’emploi inoccupé indemnisé représentait une fréquence mensuelle de 0,8 % à Bruxelles, 1,1 % en Flandre et 1,5 % en Wallonie en 2009. En 2003, elles s’élevaient seulement à 0,4 % à Bruxelles, 0,3 % en Flandre et 0,02 % en Wallonie. Conclusion et recommandations politiquesEn résumé, nous estimons que l’ACR et le contrôle de la disponibilité des chômeurs sont une contrepartie nécessaire d’une spécificité belge, à savoir le principe d’une indemnisation des chômeurs pour une durée illimitée dans le cadre de l’assurance-chômage. Mais, la procédure d’ACR doit être réformée. Il faut d’une part commencer le premier entretien d’évaluation plus tôt dans l’épisode de chômage pour que le chômeur soit conscient plus tôt de ses obligations et pour que les avantages du système puissent se faire sentir sur une population plus large. D’autre part, il nous paraît nécessaire de renforcer encore l’objectivité de la procédure d’évaluation.
APA, Harvard, Vancouver, ISO, and other styles
47

Botéa, Bianca. "Espace-frontière." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.008.

Full text
Abstract:
L’anthropologie des espaces frontaliers et des espaces-frontières est un champ relativement récent, développé dans la littérature anglo-saxonne dans les années 1990 en lien avec la problématique de la construction des nations et des États. La visibilité de ce champ thématique dans l’anthropologie francophone est plus tardive (années 2000), restant principalement investi par les géographes. Si le travail de Fredrik Barth est pionnier sur la question des frontières (boundaries) identitaires posant les bases d’une perspective non-essentialiste des groupes (Barth 1969), une anthropologie des espaces-frontières va au-delà des frontières symboliques et culturelles afin de considérer ensemble les deux sens de la notion de frontière : d’une part, les frontières physiques (borders, frontiers), établies généralement par des pouvoirs et, d’autre part, les frontières sociales, symboliques (boundaries) traduisant un rapport à l’espace matériel. La spécificité d’une étude anthropologique des frontières repose sur une approche ethnographique des pratiques ordinaires des individus et des « communautés locales situées aux frontières étatiques », sur une attention focalisée sur les constructions culturelles, matérielles et symboliques qui donnent sens à ces frontières (Wilson et Donnan 1998), autrement dit sur les négociations et les constructions « par le bas ». Ces travaux rappellent que les entités politiques « sont faites par les individus et non seulement par les images et les imaginaires construits sur ces individus via les représentants de l’État, les médias, les scientifiques » (Wilson et Donnan 1998 : 4). L’une des implications de cette orientation dans le champ d’études sur les frontières a été l’idée, omniprésente dans les travaux ultérieurs, que les frontières sont avant tout des espaces avant d’être des lignes et, qu’au-delà des ruptures instituées par les dispositifs de marquage et de contrôle de l’espace, ces frontières sont tout autant des espaces-ressources où se déploient des solidarités, des opportunités économiques et sociales. Parmi ces travaux nous pouvons signaler les contributions réunies par Bromberger et Morel (2001), ou par les numéros thématiques sur les frontières de la revue « Cultures et conflits » (2008, 2009). Au-delà de leur fonction d’espace-ressource, les zones-frontières sont des lieux de production et de négociation des cohabitations et des voisinages, dans des situations de vie multilinguistiques, multiconfessionnels et plus largement multiculturels. (Berdhal 1999 ; Botea 2013 a). C’est notamment dans les contextes de changement (crise politique ou économique, changement de frontières étatiques, etc.) que les espaces-frontières se montrent des haut-analyseurs des transformations vécues par les sociétés. Il convient de noter une évolution à plusieurs titres du champ d’études anthropologiques sur la frontière. Tout d’abord, le champ thématique s’agrandit, de la problématique des constructions nationales et étatiques et des pratiques de mobilité à des ritualités et des politiques identitaires (confessionnelles, linguistiques, de genre, de sexualité), à des problématiques environnementales et de développement, à des questions patrimoniales et mémorielles, etc. D’autres dynamiques au sein des études sur la frontière sont également à signaler. Selon Wilson et Donnan, une certaine conception « localiste, territoriale et particulariste de la frontière », tributaire d’une approche localiste de la culture et du travail de terrain (2012 : 8), persisterait dans les travaux des années 1990. On passe ainsi d’une frontière considérée comme contexte − une frontière qui définit le cadre social et géographique de l’enquête, la recherche se focalisant sur les expériences de la « communauté » vivant à la frontière − à une frontière vue comme objet d’étude, relevant des dynamiques comparables ailleurs. On s’oriente aussi vers des approches « multisites », vers des analyses des expériences des individus des différents côtés (sites) d’une frontière. En outre, une des mutations des plus importantes est l’intérêt grandissant pour considérer la frontière comme un processus, les analyses mettant l’accent sur les pratiques de faire frontière (bordering). Situées à l’opposé d’une approche qui considère le caractère « donné » ou territorialisé de la frontière (donnée politique ou naturelle), les pratiques ethnographiques tentent d’identifier les lieux (et les sites), les pratiques sociales à travers lesquelles des frontières adviennent et sont vécues dans des multiples sens : non seulement par des limites tracées par des dispositifs de marquage et de contrôle mais aussi par des objets plus incertains, performant des frontières tout aussi vives, comme l’usage d’une langue, une pratique confessionnelle, des savoir-faire, une pratique touristique, etc. Une perspective attentive à la frontière comme processus peut s’affranchir d’une approche territorialisée de la frontière qui associe celle-ci à des lieux géographiques précis, généralement à des marges et des confins. La frontière est mobile, changeante, elle peut produire des effets qui se localisent ailleurs, voire même dans des zones de centralité géographique. Alors que des territoires qui ne se trouvent pas aux confins peuvent fonctionner comme des espaces -frontières (dans le sens d’espaces négociés ou contestés, jouant des ambivalences ouverture/fermeture), les espaces-frontaliers peuvent ne pas entrer dans cette catégorie (Kotek 2001). C’est aussi vers des questions méthodologiques et épistémologiques que ce tournant pragmatiste dans les approches de la frontière nous amène (perspective qui considère cette dernière comme un effet de pratique), avec tout d’abord l’idée qu’une ethnographie (multisite) en contexte frontalier n’est pas forcément une ethnographie menée de part et d’autre de cette frontière comme nous pourrions le penser habituellement. Cela traduirait une approche toujours localiste du terrain frontalier, déplacée cette fois-ci à l’échelle transfrontalière. Nous avons par exemple des territoires frontaliers qui ne produisent pas d’espaces sociaux de voisinage dans le transfrontalier proche, mais qui agissent comme des commutateurs importants opérant des liens avec des territoires plus lointains (Botea 2013 b). Par conséquent, ce sont les réseaux de sites constitués par les différentes pratiques de connexion entre les individus, lesquels se déploient sur des espaces-temps mobiles (par forcément situés dans le voisinage proche), qui forment les contours du « terrain ». Les crises politiques actuelles dans le monde arabe et les manifestations du problème des réfugiées et de sa gestion dans les différentes sociétés européennes montrent bien les reterritorialisations permanentes des dispositifs politiques voire civils de « faire frontière », ainsi que les espaces sociaux mobiles créés afin de les contourner. Cette double qualité de la frontière, d’une part comme frontière-mur d’autre part comme frontière traversée et poreuse, caractérise le régime sous lequel fonctionne toute frontière, aussi bien au niveau des pratiques ordinaires des individus que comme mode de gouvernance. Enfin, les études sur les frontières amènent leurs auteurs à se questionner sur les frontières des disciplines qui investissent ce champ, elles-mêmes traversées (pensons ici au seul exemple de la démarche ethnographique adoptée de plus en plus par la sociologie, la géographie, etc.). Nous assistons désormais à la constitution des travaux qui montrent une volonté de réunir et faire converger les points de vue disciplinaires (Anteby-Yemini et al. 2014 ; Chavarochette et al. 2015), certains auteurs pionniers dans cette perspective (Donnan et Wilson 2012) s’interrogeant sur la constitution d’un champ pluridisciplinaire, voire postdisciplinaire, du Border Studies.
APA, Harvard, Vancouver, ISO, and other styles
48

PARIS, A. "Introduction." INRAE Productions Animales 19, no. 3 (May 13, 2006). http://dx.doi.org/10.20870/productions-animales.2006.19.3.3492.

Full text
Abstract:
Durant la seconde moitié du 20e siècle, le progrès des connaissances en physiologie, en particulier dans les domaines de la nutrition, de la croissance et de la reproduction, et l'amélioration des pratiques d'élevage sont allés de pair. Il s'agissait in fine de répondre à une exigence économique, au moins dans les pays les plus développés, celle qui consistait à atteindre d'abord l'autosuffisance alimentaire avec un meilleur statut sanitaire des élevages et des productions puis, dans un deuxième temps, à développer des capacités d'exportation d'animaux ou de produits animaux. D'un point de vue agronomique, cela s'est traduit par une nécessaire amélioration des performances de l'élevage, en particulier en augmentant la vitesse de croissance des animaux, le niveau de production laitière, l'efficacité de la valorisation nutritionnelle des aliments, ou la possibilité d'accroître sensiblement les capacités de reproduction des cheptels, tout ceci en considérant les contraintes sanitaires et d'organisation du travail liées à une diminution radicale de la population agricole tout au long de ces 50 dernières années. L'essor après-guerre de l'industrie pharmaceutique a permis de créer de très nombreux analogues des premiers stéroïdes naturels qui venaient d'être décrits, tant au plan structural que de leur rôle dans la physiologie de la reproduction ou de la croissance. Ainsi, avant que les mécanismes et modes d'action de ces hormones ne soient clairement établis, celles-ci pouvaient déjà être utilisées, que ce soit pour mieux maîtriser la reproduction ou pour améliorer la croissance des animaux. Dès les années 50, les premiers stéroïdes anabolisants avaient fait leur apparition en élevage. Le diéthylstilbœstrol (DES) synthétisé à la fin des années 30 (Dodds et al 1938) a pu être utilisé comme promoteur de croissance jusqu'à la fin des années 70 aux USA où, depuis, il a été interdit en raison de risques importants pour la santé du consommateur (Herbst et al 1971, Fara et al 1979, Herbst et Bern 1981, Perez-Comas 1988). A compter de cette période, une réévaluation des caractéristiques toxicologiques des quelques molécules utilisées pour leurs propriétés hormonales a permis de mieux préciser les risques pour le consommateur, de renforcer les contrôles de molécules analogues pouvant être utilisées frauduleusement et d'encourager la mise en place de nouvelles recherches pour encore mieux apprécier les effets, à des doses faibles, de résidus qui peuvent être retrouvés dans certains tissus destinés à la consommation. Des divergences d'opinions, scientifiques, économiques et politiques, sont apparues entre l'Union européenne (UE) et certains pays hors l'UE à l'occasion de l'application stricte en 1988 par l'UE du principe de précaution en matière d'utilisation des hormones stéroïdiennes, essentiellement comme anabolisants. En effet, la position adoptée par l'UE s'appuie sur la mise en avant d'un certain nombre de difficultés d'interprétation de résultats permettant de conclure à l'absence d'effet toxique des faibles doses de résidus de ces hormones présentes dans les produits animaux destinés à la consommation (SCVPH 2002, Andersson et Skakkebæk 1999). Dans l'UE, une hormone peptidique, l'hormone de croissance, pouvant être utilisée dans les élevages laitiers ou dans les élevages de porcs à l'engrais, a subi plus récemment le même sort que les stéroïdes anabolisants, même si l'évaluation des risques propres à son utilisation ne peut être comparée à celle des stéroïdes. Le bannissement des β-agonistes dans l'UE est à ranger dans le même cortège réglementaire. En filigrane, le souci apparu depuis plus d'une dizaine d'années d'améliorer la qualité et la traçabilité des produits animaux, de maintenir les prix à la production, d'assainir l'environnement économique des productions animales et éviter ainsi des situations structurelles d'excédent, très coûteuses, telles qu'elles existaient dans les années 70 et 80 en Europe de l'Ouest explique aussi la position ferme adoptée par l'UE en matière de recours aux promoteurs de croissance. Cette tendance forte ne peut être ignorée des acteurs des filières concernées. Elle constitue d'ailleurs un nouveau jeu de contraintes à intégrer dans les différents paramètres technico-économiques à prendre en considération dans les pratiques d'élevage actuellement en place, à condition d'en mieux connaître les bases génétiques, physiologiques et biochimiques. C'est dans ce climat actuel d'interrogation sur l'avenir des filières animales que la nécessité d'une synthèse bibliographique actualisée sur les risques posés en matière de santé publique par l'utilisation des hormones en élevage est apparue. Cette synthèse est destinée tout à la fois aux professionnels des filières concernées, aux scientifiques directement impliqués dans les différents domaines de recherche et de développement afférents et à un public de «décideurs» interagissant avec ces mêmes filières. Cette initiative en revient à l'Académie des sciences qui la publiera dans la collection des Rapports sur la science et la technologie (RST). Nous en présentons ici une version largement augmentée qui montre combien les recherches conduites depuis plus de quarante ans en la matière et les développements qui s'en sont suivis ont été à la fois importants, multiples, parfois inattendus. Les principales fonctions physiologiques d'intérêt zootechnique susceptibles d'être modulées artificiellement, les substances utilisées en pratique, les productions animales concernées sont décrites ci-après. Les éléments de l'appréciation du risque toxicologique lié à l'utilisation de ces substances et le contrôle de leur utilisation en élevage sont ensuite abordés. Enfin, de nouvelles méthodes permettant de contrôler certaines fonctions physiologiques ou d'en moduler l'expression sont brièvement présentées, qui préfigurent ce que pourrait être une zootechnie renouvelée à l'horizon 2020.
APA, Harvard, Vancouver, ISO, and other styles
49

Pensieroso, Luca, and Michel De Vroey. "Focus 25 - juin 2020." Regards économiques, July 16, 2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Full text
Abstract:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography