Siga este enlace para ver otros tipos de publicaciones sobre el tema: Transfert d’énergie échelle par échelle.

Artículos de revistas sobre el tema "Transfert d’énergie échelle par échelle"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 23 mejores artículos de revistas para su investigación sobre el tema "Transfert d’énergie échelle par échelle".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore artículos de revistas sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Deau, Thierry. "Produire et stocker l’électricité pour décarboner les systèmes insulaires". Annales des Mines - Réalités industrielles Août 2023, n.º 3 (4 de agosto de 2023): 47–50. http://dx.doi.org/10.3917/rindu1.233.0047.

Texto completo
Resumen
En région outre-mer, le développement du réseau électrique est confronté à des contraintes majeures, notamment l’isolement géographique et une forte croissance démographique. Le déploiement de la Station de transfert d’énergie par pompage (STEP) en Martinique, présenté dans cet article, illustre comment ces contextes particuliers permettent la mise en œuvre économique et significative d’infrastructures énergétiques, même à petite échelle. Cette infrastructure hybride, combinant une technologie mature avec de nouveaux moyens innovants, contribuera dès 2024 à répondre aux nombreux défis de développement territorial en Martinique, tels que l’indépendance énergétique, la stabilité et décarbonation du réseau, ainsi que le développement de l’économie agricole locale et la sécurité incendie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

CORDOVA LLANOS, V., H. X. HUMBEL, J. BOISSON, R. PHILIPPE y M. POMIES. "Identification des projets potentiels de valorisation de l’énergie thermique des eaux usées de l’Eurométropole de Strasbourg". Techniques Sciences Méthodes 11 (21 de noviembre de 2022): 63–70. http://dx.doi.org/10.36904/tsm/202211063.

Texto completo
Resumen
La récupération de chaleur des eaux usées peut fournir une source supplémentaire d’énergie renouvelable pour le chauffage et le refroidissement des bâtiments. La performance et la rentabilité des installations sont toutefois conditionnées par des paramètres propres à chaque projet. À l’aide d’une analyse multicritère, ces paramètres peuvent être évalués à une échelle territoriale afin d’identifier les projets qui présentent les meilleures conditions pour l’installation d’un système de récupération de chaleur. L’analyse multicritère appliquée à l’Eurométropole de Strasbourg (EMS) évalue trois types de critères au niveau du territoire : des critères d’inclusion, d’exclusion et de hiérarchisation. Les critères d’inclusion ont permis dans un premier temps d’identifier les projets potentiels de valoriser l’énergie des eaux usées de l’EMS. Ainsi 91 bâtiments publics ont été sélectionnés en fonction de leur consommation énergétique et de leur proximité d’une conduite exploitable. Les critères d’exclusion ont ensuite permis d’écarter 40 projets potentiels pour lesquels la récupération de la chaleur des eaux usées n’est pas envisageable à cause des contraintes liées à l’urbanisme du territoire ou à l’utilisation privilégiée d’autres sources d’énergies renouvelables, par exemple lorsqu’il existe déjà un réseau de chaleur. Finalement, les critères de hiérarchisation ont permis de classer les 51 projets restants en fonction des paramètres de contexte qui conditionnent la performance et la rentabilité des installations. Les canalisations d’eaux usées associées aux projets qui se trouvent en haut de cette classification présentent ainsi les caractéristiques suivantes : une puissance d’extraction importante, un niveau d’autocurage fort, et un taux d’eaux claires parasites (ECP) faible. De plus, le projet potentiel se trouve dans une zone où des projets de géothermie de minime importance (GMI) ne sont pas éligibles, la récupération de chaleur des eaux usées se propose donc comme une source d’énergie alternative. Cette analyse multicritère développée à échelle territoriale constitue ainsi un outil d’aide à la décision qui permettra à l’EMS d’orienter la sélection des projets à développer.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Olmedo, Ignacio, Marie-Aurélie Chanut, Cyril Douthe, Mathieu Verdet, Clément Galandrin, Loic Dugelas y David Bertrand. "Étude expérimentale multi-échelle sur les écrans pare-blocs : comportement des ouvrages hors cadre ETAG27". Revue Française de Géotechnique, n.º 163 (2020): 8. http://dx.doi.org/10.1051/geotech/2020018.

Texto completo
Resumen
Dans le cadre du projet national C2ROP, une large campagne d’essais expérimentaux a été conduite. Des essais sous sollicitations quasi-statiques et dynamiques ont été réalisés sur les composants les plus critiques des écrans pare-blocs (filets, dissipateur d’énergie) et sur un ouvrage complet selon différentes configurations. Une dizaine d’essais d’impact a été réalisée sur un écran développé spécifiquement pour étudier expérimentalement le comportement de ce type d’ouvrage. Des méthodes d’acquisition de données spécifiques ont été mises en place, et une grande quantité de données a été recueillie puis exploitée. La force d’impact utile pour le dimensionnement des composants, le phasage de la déformation de l’ouvrage (de l’impact à l’arrêt du bloc), et la cinématique des dissipateurs d’énergie ont ainsi pu être étudiés. Des configurations d’impacts inhabituelles représentatives des conditions de sollicitation de l’ouvrage dans son contexte de mise en œuvre ont été réalisées et comparées aux configurations de certification prescrites par l’ETAG27. Des coefficients ont été proposés afin de quantifier l’endommagement de l’ouvrage par rapport à la configuration de certification en fonction du type d’impact. Les résultats obtenus mettent en évidence que la configuration définie par l’ETAG27 n’est pas nécessairement la configuration la plus défavorable.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Furet, Agathe, Stephane Lambert, Pascal Villard, Jean-Philippe Jarrin y Julien Lorentz. "Réponse sous impact de murs pare-blocs". Revue Française de Géotechnique, n.º 163 (2020): 9. http://dx.doi.org/10.1051/geotech/2020017.

Texto completo
Resumen
Cet article présente l’étude du comportement dynamique de murs innovants de protection contre les chutes de blocs constitués de blocs en béton liés entre eux par un assemblage d’armatures. Les différents modes de déformation des murs et l’influence de la géométrie des murs sur leur réponse en déplacement sont étudiés par la réalisation d’impacts sur des murs à échelle 1/4, dans des configurations variées. Un modèle numérique basé sur une approche tridimensionnelle et continue, représentant de manière réaliste les différents constituants de la structure et leurs interactions, est ensuite proposé. Les résultats numériques concernant le déplacement de l’ouvrage sont confrontés aux résultats expérimentaux. Enfin, la dissipation d’énergie au sein de l’ouvrage est abordée, en considérant les différents mécanismes dissipatifs et leur contribution.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Omara, Abdeslam y Said Abboudi. "Influence des Conditions d’Entrée Variables sur le Transfert de Chaleur non-Stationnaire dans une Conduite Cylindrique". Journal of Renewable Energies 1, n.º 2 (31 de diciembre de 1998): 109–23. http://dx.doi.org/10.54966/jreen.v1i2.950.

Texto completo
Resumen
Cette étude numérique concerne la théorie du transport de chaleur laminaire non - stationnaire dans une conduite cylindrique soumise à des conditions thermiques d’entrée périodiques. Le régime transitoire est provoqué par une condition de flux ou par une condition de température d’entrée de type harmonique. Le profil de vitesse est supposé parabolique et indépendant du temps. Les propriétés thermodynamiques du fluide et de la paroi sont constantes, la résistance thermique de la paroi est négligeable et le couplage paroi - fluide est réalisé à l’aide d’un bilan d’énergie incluant le taux d’énergie transférée par conduction par le fluide et le terme d’énergie interne de la paroi. On étudie les différents termes du bilan énergétique du système dans le cas d’une perturbation de type échelon de flux. Nous avons constaté que le régime transitoire est en partie conditionné par le terme d’énergie interne du fluide. Dans le cas d’une condition de flux de type harmonique, nous avons étudié la fonction de transfert du fluide en fonction du nombre de Reynolds. Pour une température d’entrée périodique, nous avons étudié l’influence du paramètre b* (taux de l’énergie stockée dans la paroi au flux transféré par conduction à travers la veine fluide de la paroi au fluide et inversement) et des pertes convectives sur l’évolution spatio-temporelle de la température de la paroi, de la température moyenne du fluide et du nombre de Nusselt local. L’étude numérique présentée nous a permis de conclure que pour les valeurs élevées de b* et de Nue (nombre de Nusselt extérieur), le nombre de Nusselt local obtenu est en bon accord avec le nombre de Nusselt local et stationnaire correspondant à une paroi à température constante et uniforme. Un tel modèle est valable dans une large gamme des valeurs de b* et Nue.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Khadraoui, Mohamed Amine y Leila Sriti. "Etude expérimentale du comportement thermique d’une façade ventilée dans un climat chaud et aride". Journal of Renewable Energies 20, n.º 4 (31 de diciembre de 2017): 626–34. http://dx.doi.org/10.54966/jreen.v20i4.655.

Texto completo
Resumen
Les façades des édifices sont considérées comme des surfaces de transfert de chaleur entre l’ambiance interne et le climat extérieur. Elles sont des zones de grandes pertes thermiques à travers différents modes de transfert(par conduction, convection et rayonnement), ce qui influe d’une grande manière sur le fonctionnement thermique des bâtiments. L’objectif de cette recherche est d’étudier le comportement thermique d’une façade ventilée sur son efficacité dans une zone chaude et aride. Cette recherche est basée sur un travail expérimental à travers l’exploitation des cellules tests à une échelle réduite. Les paramètres étudiés sont : les températures surfaciques externes, surfaciques internes et les températures ambiantes. Les résultats ont démontré que le fonctionnement thermique de la cavité d’air d’une façade ventilée influe d’une façon positive sur le comportement thermique de la façade et par la suite sur la performance thermique et énergétique de la construction.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Tilston, Mike y Pascale M. Biron. "Structure de l’écoulement tridimensionnel, turbulence et contrainte de cisaillement dans une boucle de méandre". Géographie physique et Quaternaire 60, n.º 3 (13 de mayo de 2008): 225–39. http://dx.doi.org/10.7202/017997ar.

Texto completo
Resumen
Résumé Plusieurs facteurs contribuent à l’instabilité des berges dans les méandres, mais le rôle joué par la dynamique de l’écoulement complexe au sein de ces sites n’est pas clairement élucidé. L’objectif de cette recherche est d’examiner la dynamique de l’écoulement tridimensionnel (3D) d’une boucle de méandre en vue de déterminer les liens entre la structure de l’écoulement moyen et turbulent, la contrainte de cisaillement et l’érosion des berges. Des données de vitesse 3D ont été recueillies dans une boucle de méandre avec un vélocimètre acoustique Doppler (ADV) et un profileur acoustique Doppler conçu pour les rivières peu profondes (PC-ADP). Une comparaison entre ces deux appareils a révélé que le PC-ADP donne de bons estimés de vitesse moyenne dans un écoulement relativement simple (au centre du chenal), mais le problème de moyennage spatial le rend moins efficace dans un plan de mélange où l’écoulement est plus complexe. L’ADV est aussi supérieur au PC-ADP pour les estimés de contrainte de cisaillement et l’étude de la turbulence à petite échelle, mais ce dernier révèle mieux les patrons à grande échelle. Deux cellules d’écoulement secondaire dans le méandre ressortent nettement avec les mesures simultanées du PC-ADP. Les maxima de contrainte de cisaillement mesurée avec l’ADV par la méthode d’énergie turbulente cinétique sont situés à l’entrée du méandre lorsque le niveau est plus bas, et à la sortie du méandre lorsque le niveau augmente. Ces deux zones correspondent à des observations de décrochement de berge au site d’étude.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Leblanc, Hélène. "Transfert d’auctoritates du sémantique à l’indiciaire au XVIIe siècle : Gassendi et Hobbes". Cygne noir, n.º 6 (8 de junio de 2022): 74–97. http://dx.doi.org/10.7202/1089777ar.

Texto completo
Resumen
L’histoire de la pensée sémiotique se caractérise par une oscillation entre définition large et définition étroite de son objet. Au Moyen Âge, la définition augustinienne du signe est jugée trop étroite, car elle ne concerne que le signe sensible. De nouvelles définitions tentent alors de faire des concepts des signes qui renvoient aux choses. L’Âge moderne, au contraire, affirme une volonté de rétrécissement à l’égard de la notion de signe. Cet article montrera les caractéristiques d’une telle réflexion sémiotique à travers deux auteurs représentatifs d’un premier empirisme moderne : Pierre Gassendi et Thomas Hobbes. Le retour à une sémiotique étroite s’effectue par la référence aux traditions stoïcienne, sceptique et épicurienne, ainsi qu’à un Aristote renouvelé, et par une prédilection affichée pour la valeur indiciaire du signe par rapport à sa valeur sémantique. Ceci veut dire que les empiristes vont insister avant tout sur la fonction remémorative du signe et sur sa valeur de probabilité. L’indice en tant que trace sera ainsi privilégié par rapport au signe communicationnel, et il s’agira d’en défendre la validité en tant qu’il s’inscrit dans une échelle de certitude, au sommet de laquelle se situe la preuve.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Delaveau, François y Glen OLIVIER. "Transfert d’eau brute à grande échelle en Vendée, une solution pour sécuriser l’alimentation en eau potable". TSM 11 2023, TSM 11 2023 (20 de noviembre de 2023): 17–23. http://dx.doi.org/10.36904/tsm/202311017.

Texto completo
Resumen
La Vendée est un territoire disposant essentiellement de ressources constituées d’eau de surface. Dans ces conditions, la ressource disponible pour la production d’eau potable est particulièrement sensible aux étiages sévères provoqués par le dérèglement climatique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Frossard, Etienne. "La mécanique dissipative des géo-matériaux granulaires et ses applications pratiques en Génie Civil". Revue Française de Géotechnique, n.º 167 (2021): 2. http://dx.doi.org/10.1051/geotech/2021007.

Texto completo
Resumen
L’article, résultant d’un travail de long terme sur la physique des géo-matériaux granulaires et la pratique du génie civil de grandes infrastructures, synthétise une vision nouvelle du comportement mécanique de ces matériaux, à partir d’approches dissipatives micromécaniques originales. Après le contexte et les hypothèses-clé, il présente les aspects essentiels des structures dissipatives induites par la friction de contact élémentaire, associée à des spécificités de mécanique statistique dans ces matériaux en mouvement quasi-statique, et leur expression multi-échelle par des relations tensorielles fortes : les équations de la dissipation d’énergie résultant de la friction. Sur cette base, est ensuite établi un large ensemble de propriétés pratiques d’usage général en génie civil, incluant : le critère de rupture, le couplage résistance au cisaillement/variations de volume, la compaction cyclique, l’équilibre géostatique « au repos »… Bien que l’essentiel de l’article soit focalisé sur les caractères induits par la friction de contact, une dernière section présente d’autres propriétés-clé induites par la rupture des granulats, autre processus dissipatif après la friction de contact. Ces propriétés incluent des incidences explicites sur les effets d’échelle dans le comportement structural d’ouvrages, vérifiées sur de grands ouvrages.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Michaud, Dominique. "Impact environnemental des cultures transgéniques". Articles de synthèse 86, n.º 2 (9 de marzo de 2006): 93–105. http://dx.doi.org/10.7202/012510ar.

Texto completo
Resumen
L’adoption à grande échelle des cultures transgéniques depuis dix ans a soulevé de nombreuses questions quant aux impacts possibles de ces nouvelles lignées végétales sur les écosystèmes agricoles et naturels. Des questions ont été soulevées, en particulier, sur le devenir des transgènes dans le milieu et sur une possible « pollution » du patrimoine génétique des organismes vivants à l’échelle des écosystèmes. Après une énumération des impacts environnementaux associés aux végétaux transgéniques, cet article de synthèse dresse un aperçu des connaissances actuelles sur le devenir – ou la migration – des transgènes dans le milieu. Les phénomènes d’hybridation et d’introgression génique en direction d’espèces ou de lignées apparentées sont d’abord abordés, après quoi sont considérés les phénomènes de transfert horizontal des transgènes en direction d’organismes non apparentés. Un article complémentaire publié dans ce même numéro traite de l’impact environnemental des protéines recombinantes encodées par les transgènes (Michaud 2005).
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Trouvé, E. y S. Belloir. "Un procédé de fractionnement innovant au coeur du développement des stations d’épuration durables de demain". Techniques Sciences Méthodes, n.º 4 (abril de 2019): 37–44. http://dx.doi.org/10.1051/tsm/201904037.

Texto completo
Resumen
Aujourd’hui, la fonction essentielle d’une station d’épuration est de dépolluer les effluents liquides pour limiter les dommages sur les milieux naturels ou pour la santé publique. Cet objectif de conservation ne prend malheureusement pas en compte les pressions sociétales. La croissance démographique, les sociétés de consommation nous ont amenés à une situation où annuellement nous consom mons plus de ressources que la planète peut nous offrir. À l’heure du recyclage et du développement de l’économie circulaire, il semble urgent de faire évoluer la conception et l’exploitation des stations d’épuration (STEP). Ces dernières ne doivent plus jouer le rôle de « déchetterie liquide », mais celui de « récupérateur/producteur de ressources ». Avec son développement, la filière biogaz apparaît comme une évidence. Cependant, malgré ces tendances, la croissance d’unités de biogaz sur STEP est figée. Cela est dû au fait que les procédés classiques d’épuration dégradent le pouvoir méthanogène des effluents et restreignent la valorisation d’autres ressources. Les STEP de demain devront être des bioraffineries à forte valeur ajoutée. Cela conduit à faire évoluer nos procédés : au lieu d’enlever les polluants par étapes successives pour obtenir des effluents « propres », extrayons les ressources les unes après les autres, à commencer par l’eau pour la recycler, de l’énergie ainsi que des matières organiques et minérales. Oublions le traitement et valorisons le tri pour une économie circulaire respectueuse quantitativement et qualitativement de nos ressources naturelles. Des technologies de fractionnement membranaire sont la clé du développement de ces bioraffineries. Un retour d’expérience sur une industrie agroalimentaire est présenté dans cet article. Les résultats de ces essais à grande échelle révèlent le potentiel et l’intérêt du recyclage par fractionnement en comparaison aux procédés conventionnels de traitement. Les nouvelles STEP peuvent ainsi devenir des usines de production d’eau potable, de bioengrais, de biomatériaux… tout en étant productrices d’énergie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Bouzid, Noureddine, Noureddine Settou, Touhami Lanez, Abdelkader Djelloul, Ahmed Abdelhafid Bebba y Fatiha Chelgham. "Rôle des transferts thermiques sur la corrosion des concentriques utilisés dans les puits producteurs d’eau albienne". Revue des sciences de l'eau 22, n.º 3 (3 de agosto de 2009): 397–406. http://dx.doi.org/10.7202/037778ar.

Texto completo
Resumen
Résume L’eau de l’aquifère albien de la région de Haoud‑Berkaoui est utilisée à grande échelle et à des fins variées dans le Bas‑Sahara algérien, notamment dans le domaine de l’extraction pétrolière. Pour améliorer les conditions d’exploitation de l’eau souterraine, des concentriques ont été installés au sein des puits producteurs pour l’acheminement d’inhibiteurs de corrosion. La durée de vie de ces concentriques, prévue initialement pour cinq années, a été réduite à seulement deux ans, des fuites importantes d’eau ainsi que des dégradations au niveau des têtes de puits ayant été constatées. Les analyses chimiques des échantillons d’eau de plusieurs forages montrent que ces derniers sont de nature incrustante, chargés en sulfates, peu riches en gaz carbonique dissous et ne contiennent pas de H2S ni d’oxygène. Il a été possible, par thermométrie, de mettre en évidence l’existence d’un gradient de température, variable en fonction de la profondeur et pouvant atteindre 16 °C. La corrosion du concentrique sous transfert thermique a été examinée à l’aide des techniques électrochimiques. La vitesse de corrosion augmente considérablement en fonction du gradient de température croissant, quelle que soit la nature de l’eau (ayant ou non subi un traitement préalable par bactéricides et inhibiteurs). La meilleure efficacité des traitements employés a été obtenue pour un gradient nul et n’atteint que 30 %. L’absence totale de FeS élimine toute possibilité de corrosion d’origine bactérienne, le gradient de température semble favoriser l’accélération de la cinétique d’échange entre le métal et l’eau.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Givron, Hélène, Line Fischer y Martin Desseilles. "Validation de la version francophone du questionnaire d’attitudes envers les compétences communicationnelles et leur apprentissage (CSAS) chez des étudiants en médecine belges". Pédagogie Médicale 22, n.º 3 (2021): 125–38. http://dx.doi.org/10.1051/pmed/2021014.

Texto completo
Resumen
Contexte : Les étudiants en médecine peuvent présenter des attitudes négatives envers les entraînements aux compétences communicationnelles (CC), limitant leur efficacité et transfert dans la pratique. Objectifs : Traduire et valider les propriétés psychométriques de la version francophone du questionnaire Communication Skills Attitude Scale (CSAS) ; examiner d’éventuelles corrélations entre les attitudes de nos étudiants et certaines variables sociodémographiques et éducationnelles ; explorer les attitudes négatives de nos étudiants par le biais de données qualitatives. Méthodes : Un questionnaire auto-administré a été proposé à des étudiants de première, deuxième et troisième années de médecine lors de l’année universitaire 2018–2019. Le questionnaire contenait le CSAS traduit en français, des questions sociodémographiques, éducationnelles, un questionnaire explorant les compétences émotionnelles et une question ouverte pour les étudiants qui rapportaient un score extrême à l’item 19 du CSAS. Résultats : 262 étudiants ont rempli ce questionnaire. Dans l’ensemble, l’analyse en composantes principales accrédite la structure originale du CSAS en deux composantes. Le test-retest montre des corrélations significatives en faveur de la fidélité de cette échelle. La validation convergente a été observée via des corrélations positives significatives entre attitudes positives et compétences émotionnelles. Les femmes ont présenté des scores significativement plus élevés d’attitudes positives que les hommes. L’analyse de contenu thématique a permis d’identifier différents thèmes au sein des explications données par les étudiants à leur score à l’item 19. Conclusion : Cette étude offre une version francophone du CSAS utilisable pour des objectifs de recherche et d’éducation auprès d’étudiants francophones en médecine. Nos résultats invitent à explorer le fait que les scores d’attitudes positives et négatives pourraient être déterminés par des processus différents ainsi que l’intérêt de coupler l’utilisation de ce questionnaire à des outils de récolte de données qualitatives.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

BROCHARD, M., K. DUHEN y D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"". INRAE Productions Animales 27, n.º 4 (21 de octubre de 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Texto completo
Resumen
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

GUY, G. y L. FORTUN-LAMOTHE. "Avant-propos". INRAE Productions Animales 26, n.º 5 (19 de diciembre de 2013): 387–90. http://dx.doi.org/10.20870/productions-animales.2013.26.5.3167.

Texto completo
Resumen
Ce numéro de la revue INRA Productions Animales contient un dossier consacré aux dernières avancées de la recherche sur le foie gras. En effet, la démocratisation de la consommation de ce produit haut de gamme a été permise notamment par les efforts de recherche et développement sur l’élevage des palmipèdes à foie gras et la maîtrise de la qualité du produit. Ce dossier est l’occasion de faire en préalable quelques rappels sur cette belle histoire ! Un peu d’histoire La pratique du gavage est une tradition très ancienne, originaire d’Egypte, dont les traces remontent à 2 500 avant JC. Elle avait pour objectif d’exploiter la capacité de certains oiseaux à constituer des réserves énergétiques importantes en un temps court pour disposer d’un aliment très riche. Si les basreliefs datant de l’ancien empire égyptien attestent de la pratique du gavage, il n’existe pas de preuves que les égyptiens consommaient le foie gras ou s’ils recherchaient la viande et la graisse. Ces preuves sont apparues pour la première fois dans l’empire romain. Les romains gavaient les animaux avec des figues et pour eux le foie constituait le morceau de choix. Le nom de jecur ficatum, signifiant « foie d’un animal gavé aux figues », est ainsi à l’origine du mot foie en français. La production de foie gras s’est développée dans le Sud-ouest et l’Est de la France aux XVIIe et XVIIIe siècles avec le développement de la culture du maïs. Le foie gras est aujourd’hui un met inscrit au patrimoine culturel et gastronomique français (article L. 654-27-1 du code rural défini par la Loi d’Orientation Agricole de 2006). Le contexte de la production de foie gras Avec près de 72% de la production mondiale en 2012, la France détient le quasi monopole de la production de foie gras. Les autres pays ayant des productions significatives sont la Hongrie et la Bulgarie en Europe Centrale, avec environ 10% pour chacun de ces pays, mais aussi l’Espagne avec 3% de la production. L’Amérique du nord et la Chine représentent les deux autres pôles de production les plus significatifs, mais avec moins de 2% du marché. La production française a connu un essor considérable, sans doute le plus important de toutes les productions agricoles, passant de 5 880 tonnes en 1990 à plus de 19 000 tonnes en 2012. A l’origine, le foie gras était principalement obtenu par gavage des oies, longtemps considérées comme l’animal emblématique de cette production. Aujourd’hui, le canard mulard, hybride d’un mâle de Barbarie (Cairina Moschata) et d’une cane commune (Anas Platyrhynchos), est plus prisé (97% des palmipèdes gavés en France). En France, l’oie a vu de ce fait sa part relative pour la production de foie gras diminuer, et c’est la Hongrie qui contrôle 65% de la production mondiale de foie gras d’oie. Toutefois, cette espèce ne représente que 10% de la production mondiale. La France est également le principal pays consommateur de foie gras avec 71% du total, l’Espagne se classant au second rang avec environ 10%. Compte tenu de son image de produit de luxe et d’exception, le foie gras est consommé un peu partout dans le monde lors des repas de haute gastronomie. Les grandes avancées de connaissance et l’évolution des pratiques d’élevage L’amélioration des connaissances sur la biologie et l’élevage des palmipèdes à foie gras a permis de rationnaliser les pratiques d’élevage et d’améliorer la qualité du produit. Plusieurs laboratoires de recherche et structures expérimentales, ayant leurs installations propres et/ou intervenant sur le terrain, ont contribué à l’acquisition de ces connaissances : l’INRA avec l’Unité Expérimentale des Palmipèdes à Foie Gras, l’UMR Tandem, le Laboratoire de Génétique Cellulaire, la Station d’Amélioration Génétique des Animaux et l’UR Avicoles, l’Institut Technique de l’AVIculture, la Ferme de l’Oie, le Centre d’Etudes des Palmipèdes du Sud Ouest, le LEGTA de Périgueux, l’ENSA Toulouse, l’ENITA Bordeaux et l’AGPM/ADAESO qui a mis fin en 2004 à ses activités sur les palmipèdes à foie gras. Aujourd’hui ces structures fédèrent leurs activités dans un but de rationalité et d’efficacité. Les avancées des connaissances et leur transfert dans la pratique, associés à une forte demande du marché, sont à l’origine de l’explosion des volumes de foie gras produits. Ainsi, la maîtrise de la reproduction couplée au développement de l’insémination artificielle de la cane commune et à la sélection génétique (Rouvier 1992, Sellier et al 1995) ont permis la production à grande échelle du canard mulard adapté à la production de foie gras. En effet, ses géniteurs, le mâle de Barbarie et la femelle Pékin, ont fait l’objet de sélections spécifiques basées sur l’aptitude au gavage et la production de foie gras de leurs descendants. La connaissance des besoins nutritionnels des animaux et le développement de stratégies d’alimentation préparant les animaux à la phase de gavage ont également été des critères déterminants pour la rationalisation d’un système d’élevage (Robin et al 2004, Bernadet 2008, Arroyo et al 2012). La filière s’est par ailleurs structurée en une interprofession (le Comité Interprofessionnel du Foie Gras - CIFOG) qui soutient financièrement des travaux de recherches et conduit des actions (organisation de salons du foie gras par exemple) visant à rendre accessibles toutes les avancées de la filière. Ainsi, l’amélioration du matériel d’élevage (gaveuse hydraulique et logement de gavage) a engendré des gains de productivité considérables (Guy et al 1994). Par exemple, en 20 ans, la taille d’une bande de gavage est passée de deux cents à mille individus. Enfin, la construction de salles de gavage, dont l’ambiance est parfaitement contrôlée autorise désormais la pratique du gavage en toute saison. Des études ont aussi permis de déterminer l’influence des conditions d’abattage et de réfrigération sur la qualité des foies gras (Rousselot-Pailley et al 1994). L’ensemble de ces facteurs a contribué à ce que les possibilités de production soient en cohérence avec la demande liée à un engouement grandissant pour le foie gras. Les pratiques d’élevage actuelles Aujourd’hui, le cycle de production d’un palmipède destiné à la production de foie gras comporte deux phases successives : la phase d’élevage, la plus longue dans la vie de l’animal (11 à 12 semaines chez le canard ou 14 semaines chez l’oie) et la phase de gavage, d’une durée très courte (10 à 12 jours chez le canard ou 14 à 18 jours chez l’oie). La phase d’élevage se décompose elle même en trois étapes (Arroyo et al 2012). Pendant la phase de démarrage (de 1 à 4 semaines d’âge) les animaux sont généralement élevés en bâtiment clos chauffé et reçoivent à volonté une alimentation granulée. Pendant la phase de croissance (de 4 à 9 semaines d’âge), les animaux ont accès à un parcours extérieur. Ils sont nourris à volonté avec un aliment composé de céréales à 75% sous forme de granulés. La dernière phase d’élevage est consacrée à la préparation au gavage (d’une durée de 2 à 5 semaines) grâce à la mise en place d’une alimentation par repas (220 à 400 g/j). Son objectif est d’augmenter le volume du jabot et de démarrer le processus de stéatose hépatique. Pendant la phase de gavage les animaux reçoivent deux (pour le canard) à quatre (pour l’oie) repas par jour d’une pâtée composée à 98% de maïs et d’eau. Le maïs est présenté soit sous forme de farine (productions de type standard), soit sous forme d’un mélange de graines entières et de farine, soit encore sous forme de grains modérément cuits (productions traditionnelles ou labellisées). En France, on distingue deux types d’exploitations. Dans les exploitations dites en filière longue et de grande taille (au nombre de 3 000 en France), les éleveurs sont spécialisés dans une des phases de la production : éleveurs de palmipèdes dits « prêt-à-gaver », gaveurs ou éleveurs-gaveurs. Ce type de production standard est sous contrôle d’un groupe ou d’une coopérative qui se charge des opérations ultérieures (abattage, transformation, commercialisation ou diffusion dans des espaces de vente à grande échelle). Il existe également des exploitations en filière courte qui produisent les animaux, transforment les produits et les commercialisent directement à la ferme et qui sont généralement de plus petite taille. Ces exploitations « fermières » ne concernent qu’une petite part de la production (10 à 15%), mais jouent un rôle important pour l’image de production traditionnelle de luxe qu’elles véhiculent auprès des consommateurs. Pourquoi un dossier sur les palmipèdes à foie gras ? Au-delà des synthèses publiées précédemment dans INRA Productions Animales, il nous a semblé intéressant de rassembler et de présenter dans un même dossier les avancées récentes concernant la connaissance de l’animal (articles de Vignal et al sur le séquençage du génome du canard et de Baéza et al sur les mécanismes de la stéatose hépatique), du produit (articles de Théron et al sur le déterminisme de la fonte lipidique du foie gras à la cuisson et de Baéza et al sur la qualité de la viande et des carcasses), ainsi que les pistes de travail pour concevoir des systèmes d’élevage innovants plus durables (article de Arroyo et al). L’actualité et les enjeux pour demain La filière est soumise à de nombreux enjeux sociétaux qui demandent de poursuivre les efforts de recherche. En effet, pour conserver son leadership mondial elle doit rester compétitive et donc maîtriser ses coûts de production tout en répondant à des attentes sociétales et environnementales spécifiques telles que la préservation de la qualité des produits, le respect du bien-être animal ou la gestion économe des ressources. Ainsi, la production de foie gras est parfois décriée eu égard à une possible atteinte au bien-être des palmipèdes pendant l’acte de gavage. De nombreux travaux ont permis de relativiser l’impact du gavage sur des oiseaux qui présentent des prédispositions à ce type de production : la totale réversibilité de l’hypertrophie des cellules hépatiques (Babilé et al 1998) ; l’anatomie et la physiologie des animaux de même que l’absence de mise en évidence d’une élévation du taux de corticostérone (considéré comme marqueur d’un stress aigu) après l’acte de gavage (Guéméné et al 2007) et plus récemment la mise en évidence de l’aptitude à un engraissement spontané du foie (Guy et al 2013). Le conseil de l’Europe a toutefois émis des recommandations concernant le logement des animaux qui préconisent, la disparition des cages individuelles de contention des canards pendant le gavage au profit des cages collectives. Par ailleurs, il recommande la poursuite de nouvelles recherches pour développer des méthodes alternatives au gavage. Parallèlement, à l’instar des autres filières de productions animales, la filière foie gras doit aussi maîtriser ses impacts environnementaux (voir aussi l’article d’Arroyo et al). Les pistes de recherches concernent prioritairement la maîtrise de l’alimentation, la gestion des effluents et des parcours d’élevage. Il reste donc de grands défis à relever pour la filière foie gras afin de continuer à proposer un produitqui conjugue plaisir et durabilité.Bonne lecture à tous !
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Hammoudi, Mhamed, Maiouf Belhamel y El-Khider Si-Ahmed. "Caractérisation locale des mélanges de fluides à l’aide d’une Méthode non intrusive (la vélocimétrie ultrasonore pulsée)". Journal of Renewable Energies 11, n.º 4 (31 de diciembre de 2008). http://dx.doi.org/10.54966/jreen.v11i4.105.

Texto completo
Resumen
Les opérations de mélanges ou de dispersion sont largement rencontrées dans de nombreux procédés industriels. En effet, les processus d’homogénéisation et de transformation, physique ou chimique, de la matière ou du transfert d’énergie sont à la base de nombreux secteurs industriels, tels que: l’agroalimentaire, la pétrochimie, l’industrie pharmaceutique, la cosmétique, la papeterie… Néanmoins, le choix des systèmes d’agitations, permettant de réaliser les opérations de mélangeages ou d’extractions, dépend essentiellement de leurs capacités de transferts de masse et d’énergie, leur efficacité, ainsi que de leur consommation énergétique. L’extraction des profils de vitesses et ceux de l’intensité turbulente par vélocimétrie ultrasonore pulsée permet d’estimer quantitativement et qualitativement l’évolution locale et globale du mélange à toutes les échelles (macroscopique, intermédiaire et microscopique) à travers l’estimation des temps de mélange multi échelle ou bien à l’aide de l’indice de ségrégation. Dans ce travail, nous allons présenter les mécanismes inhérents à chaque échelle de mélange en associant ces derniers aux effets hydrodynamiques rencontrés lors d’un écoulement de fluide à travers un mélangeur statique de type SMX. A cet effet, on présentera en premier lieu, les évolutions des profils de vitesses et ceux de l’intensité turbulente obtenus par vélocimétrie ultrasonore pulsée. L’analyse hydrodynamique de l’écoulement permet d’estimer les temps de mélanges multi échelle en fonction du débit et de caractériser la qualité du mélange à travers le SMX en régime turbulent. L’objectif de ce travail est de valider une approche locale et donc plus précise de la détermination des temps de mélanges multi échelles (macro mixing, méso mixing et micro mixing), à l’aide d’une méthode non intrusive; la VUP. Cette approche permettra de mieux apprécier l’impact de la turbulence locale sur les processus de mélanges. Une application future de cette approche pourra être envisagé dans les mélanges gazeux et plus particulièrement ceux contenant l’hydrogène.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Carvalho, Fanny Islana de Lima, Maria Cristina Rodrigues Halmeman y Felipe Matos dos Santos Lerco. "Analyse de l’efficacité énergétique de la bibliothèque municipale de Campo Mourão-PR : paramètres du programme national de labellisation (RTQ-C)". Revista Científica Multidisciplinar Núcleo do Conhecimento, 15 de octubre de 2021, 43–62. http://dx.doi.org/10.32749/nucleodoconhecimento.com.br/ingenierie-de-lenvironnement-fr/bibliotheque-municipale.

Texto completo
Resumen
Le secteur de la construction civile, responsable des impacts environnementaux tels que la production de déchets, la consommation d’eau et d’énergie, a le défi actuel d’apporter l’efficacité énergétique dans le chantier de construction et l’environnement post-construit. Ainsi, en matière de consommation énergétique, INMETRO a développé un programme de labellisation visant à classer l’efficacité énergétique des équipements électriques mais aussi des bâtiments. Il est vérifié que les bâtiments publics sont tenus d’obtenir le Label National d’Economie d’Energie (ENCE). Compte tenu de ce qui précède, la question est de savoir comment mesurer l’efficacité énergétique des bâtiments publics, les rendre énergétiquement adéquats, et ainsi répondre aux besoins de l’utilisateur, offrant confort environnemental et économie. L’objectif du travail était de simuler l’obtention du label ENCE Geral et de présenter le niveau d’efficacité énergétique de la bibliothèque municipale de Campo Mourão-PR. La Méthode Prescriptive, établie par le Règlement de Qualité Technique pour le Niveau d’Efficacité Énergétique des Bâtiments Commerciaux, de Services et Publics (RTQ-C) a été utilisée. Trois systèmes de construction ont été analysés : Enveloppe, Système d’éclairage et Système de climatisation.En conséquence, le bâtiment à l’étude a présenté une cote d’efficacité de niveau C, sur une échelle de A à E, avec A étant très efficace et E peu efficace. Il est conclu que le bâtiment n’offre pas de confort aux utilisateurs, en plus d’une forte consommation d’énergie. Cependant, il est possible d’adopter des mesures qui peuvent aider à optimiser le niveau d’efficacité énergétique du site.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

BENOIT, Marc, Pietro BARBIERI y Bertrand DUMONT. "Quel élevage pour une agriculture biologique performante ?" INRAE Productions Animales, 12 de marzo de 2024, 7372. http://dx.doi.org/10.20870/productions-animales.2024.37.2.7372.

Texto completo
Resumen
Les activités d’élevage sont fortement questionnées pour leurs impacts négatifs sur l’environnement, en particulier le changement climatique, et vis-à-vis de la compétition pour l’utilisation des surfaces agricoles. Depuis peu, elles sont en outre confrontées aux fortes tensions sur les ressources énergétiques. Nous montrons ici que, dans le contexte européen et français, le développement à grande échelle d’un élevage mettant en œuvre les principes de l’agriculture biologique, fortement inscrit dans la transition agroécologique, conduit à une reconception des systèmes agricoles et des régimes alimentaires. Face à l’augmentation du prix de l’énergie, nous montrons que les activités d’élevage vont perdre en compétitivité face à l’utilisation de surfaces arables dédiées à l’alimentation humaine ou à la production d’énergie. D’autre part, les produits animaux vont aussi devenir moins accessibles pour le consommateur qui voit son pouvoir d’achat baisser. Une issue pour l’élevage est de se recentrer sur l’utilisation de surfaces non cultivables et sur une large gamme de coproduits. Nous montrons que la mise en œuvre de pratiques d’élevage biologique est en totale cohérence avec ces enjeux. Une telle évolution renforcerait par ailleurs les services que les systèmes d’élevage peuvent rendre à la collectivité. Néanmoins, des freins à cette transition des systèmes de culture et d’élevage demeurent, notamment les stratégies et l’organisation actuelles des filières. Le rôle des politiques publiques est donc crucial pour anticiper une évolution qui semble inéluctable, et accompagner ces transitions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Dupont, Elise, Jean-François Fagnart, Marc Germain, Hervé Jeanmart y Louis Possoz. "Numéro 135 - novembre 2017". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco.v1i0.12533.

Texto completo
Resumen
Ce numéro spécial de Regards économiques croise les regards d’ingénieurs et d’économistes pour étudier les possibles impacts de la transition énergétique sur la croissance économique. Cette transition peut être définie comme la transformation des modes actuels de production et de consommation de l'énergie. L’angle d’analyse ne concerne pas un pays ou une région particulière mais se situe à un niveau global. Depuis quelques années, certains auteurs ont émis des doutes sur la possibilité de poursuivre sans encombre, à un niveau global, la croissance économique pendant la transition énergétique (TE). Le présent numéro de Regards économiques approfondit certains de leurs arguments à travers deux contributions. La première contribution (par les ingénieurs Elise Dupont, Hervé Jeanmart et Louis Possoz) concentre son attention sur les évolutions attendues du taux de retour énergétique (TRE) des sources éolienne et solaire, ainsi que sur leur potentiel. Les auteurs mettent en évidence un effet «localisation» selon lequel l’expansion de ces énergies impliquera de les installer sur des sites de moins en moins favorables, produisant de moins en moins d’énergie pour la même capacité installée. Une TE vers un monde 100 % renouvelable conduira alors à un TRE du système énergétique global sensiblement plus faible qu’aujourd’hui et ce, malgré le progrès technique dont les auteurs soulignent par ailleurs que le potentiel est limité. Les possibles conséquences macroéconomiques d’une telle TE sont analysées dans la deuxième contribution (par les économistes Jean-François Fagnart et Marc Germain). La baisse du TRE global accompagnant la TE se traduit par l’exacerbation des besoins en capital du secteur énergétique, avec un possible effet «d’éviction» du secteur final au niveau de l’affectation des biens d’investissement. Cet effet pèse négativement sur la croissance économique. S’il est suffisamment fort (ce qui dépend des caractéristiques de l’économie), la TE s’accompagne d’une phase de décroissance économique prolongée. Dans le cas contraire, une transition «en douceur» (c’est-à-dire sans décroissance économique) est possible. Les deux contributions résumées ci-dessus visent avant tout à éveiller la prudence à l’égard d’un certain «optimisme technologique» suggérant que la TE pourrait se révéler sans douleur pour la croissance économique grâce au seul développement tous azimuts des énergies renouvelables. Le message implicite qui en découle est que pour favoriser une transition «en douceur», des changements de comportements à grande échelle sont nécessaires (par exemple, en matière de transport). Ce qui précède pose la question des conséquences de tels changements de comportements sur l’économie, et en particulier sur le PIB et la croissance. Une autre question concerne le rôle que les pouvoirs publics devraient jouer dans la stimulation de ces changements. A notre connaissance, il s’agit là de questions qui restent largement ouvertes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Dupont, Elise, Jean-François Fagnart, Marc Germain, Hervé Jeanmart y Louis Possoz. "Numéro 135 - novembre 2017". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco2017.11.01.

Texto completo
Resumen
Ce numéro spécial de Regards économiques croise les regards d’ingénieurs et d’économistes pour étudier les possibles impacts de la transition énergétique sur la croissance économique. Cette transition peut être définie comme la transformation des modes actuels de production et de consommation de l'énergie. L’angle d’analyse ne concerne pas un pays ou une région particulière mais se situe à un niveau global. Depuis quelques années, certains auteurs ont émis des doutes sur la possibilité de poursuivre sans encombre, à un niveau global, la croissance économique pendant la transition énergétique (TE). Le présent numéro de Regards économiques approfondit certains de leurs arguments à travers deux contributions. La première contribution (par les ingénieurs Elise Dupont, Hervé Jeanmart et Louis Possoz) concentre son attention sur les évolutions attendues du taux de retour énergétique (TRE) des sources éolienne et solaire, ainsi que sur leur potentiel. Les auteurs mettent en évidence un effet «localisation» selon lequel l’expansion de ces énergies impliquera de les installer sur des sites de moins en moins favorables, produisant de moins en moins d’énergie pour la même capacité installée. Une TE vers un monde 100 % renouvelable conduira alors à un TRE du système énergétique global sensiblement plus faible qu’aujourd’hui et ce, malgré le progrès technique dont les auteurs soulignent par ailleurs que le potentiel est limité. Les possibles conséquences macroéconomiques d’une telle TE sont analysées dans la deuxième contribution (par les économistes Jean-François Fagnart et Marc Germain). La baisse du TRE global accompagnant la TE se traduit par l’exacerbation des besoins en capital du secteur énergétique, avec un possible effet «d’éviction» du secteur final au niveau de l’affectation des biens d’investissement. Cet effet pèse négativement sur la croissance économique. S’il est suffisamment fort (ce qui dépend des caractéristiques de l’économie), la TE s’accompagne d’une phase de décroissance économique prolongée. Dans le cas contraire, une transition «en douceur» (c’est-à-dire sans décroissance économique) est possible. Les deux contributions résumées ci-dessus visent avant tout à éveiller la prudence à l’égard d’un certain «optimisme technologique» suggérant que la TE pourrait se révéler sans douleur pour la croissance économique grâce au seul développement tous azimuts des énergies renouvelables. Le message implicite qui en découle est que pour favoriser une transition «en douceur», des changements de comportements à grande échelle sont nécessaires (par exemple, en matière de transport). Ce qui précède pose la question des conséquences de tels changements de comportements sur l’économie, et en particulier sur le PIB et la croissance. Une autre question concerne le rôle que les pouvoirs publics devraient jouer dans la stimulation de ces changements. A notre connaissance, il s’agit là de questions qui restent largement ouvertes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

De Briey, Valérie. "Numéro 28 - mars 2005". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15993.

Texto completo
Resumen
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

De Briey, Valérie. "Numéro 28 - mars 2005". Regards économiques, 12 de octubre de 2018. http://dx.doi.org/10.14428/regardseco2005.03.01.

Texto completo
Resumen
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude. De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc. Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.). Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire). Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides. Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.). Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée. Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres). Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía