To see the other types of publications on this topic, follow the link: Transferts de matières couplés.

Journal articles on the topic 'Transferts de matières couplés'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 journal articles for your research on the topic 'Transferts de matières couplés.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Ben Jabrallah, S., A. Belghith, and J. P. Corriou. "Etude des transferts couplés de matière et de chaleur dans une cavité rectangulaire: application à une cellule de distillation." International Journal of Heat and Mass Transfer 45, no. 4 (2002): 891–904. http://dx.doi.org/10.1016/s0017-9310(01)00206-x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

CHERIF, Yassine. "Etude des transferts thermiques couplés dans un système complexe comprenant un milieu fluide type lame d'air." Revue Européenne de Génie Civil 10, no. 8 (2006): 995. http://dx.doi.org/10.1080/17747120.2006.9692876.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Topin, Frédéric, Jean-Vincent Daurelle, and Marie-Christine Donneaud. "Modélisation des transferts couplés de chaleur et de masse avec changement de phase en milieux poreux." Revue Européenne des Éléments Finis 6, no. 1 (1997): 71–98. http://dx.doi.org/10.1080/12506559.1997.10511254.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rafidiarison, Helisoa, Éric Mougel, and Alexis Nicolas. "Caractérisation expérimentale des transferts couplés de chaleur et de masse dans les enveloppes de constructions en bois." Mechanics & Industry 13, no. 5 (2012): 347–52. http://dx.doi.org/10.1051/meca/2012032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lopez, Christine, Jean-Vincent Daurelle, and René Occelli. "Formulation éléments finis des ordonnées discrètes pour la modélisation des transferts couplés conduction-rayonnement en géométrie bidimensionnelle." Revue Européenne des Éléments Finis 8, no. 8 (1999): 847–78. http://dx.doi.org/10.1080/12506559.1999.10511415.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Mhimid, Abdallah, Abdelmajid Jemni, and Sassi Ben Nasrallah. "Étude théorique des transferts couplés de chaleur et de masse lors de la désorption du couple zéolithe 13X-eau." Revue Générale de Thermique 36, no. 9 (1997): 697–706. http://dx.doi.org/10.1016/s0035-3159(97)88434-6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Perre, P., and A. Degiovanni. "Simulation par volumes finis des transferts couplés en milieux poreux anisotropes: séchage du bois à basse et à haute température." International Journal of Heat and Mass Transfer 33, no. 11 (1990): 2463–78. http://dx.doi.org/10.1016/0017-9310(90)90004-e.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Le Goff, H., A. Ramadane, and P. Le Goff. "Modelisations des transferts couples de matière et de chaleur dans l'absorption gaz-liquide en film ruisselant laminaire." International Journal of Heat and Mass Transfer 28, no. 11 (1985): 2005–17. http://dx.doi.org/10.1016/0017-9310(85)90094-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

CHATELET, A., A. FOURNIER, S. JURJANZ, et al. "L’épandage de matières fertilisantes d’origine résiduaire sur les prairies comporte-t-il des risques en termes de transfert de polluants organiques et inorganiques vers la chaîne alimentaire ?" INRA Productions Animales 28, no. 5 (2020): 383–98. http://dx.doi.org/10.20870/productions-animales.2015.28.5.3041.

Full text
Abstract:

 
 
 
 L’objectif de cet article est d’identifier les points de vigilance relatifs aux transferts de polluants inorganiques ou organiques vers les animaux d’élevage via l’ingestion de sol, de plantes, d’eau ou encore de pédofaune, consécutivement à l’épandage de MAtières Fertilisantes d’Origine Résiduaire (MAFOR) sur les prairies. Cette identification consiste à prendre en compte simultanément les quantités de polluants ingérées (quantité de matrice ingérée × concentration du polluant dans cette matrice), la fraction biodisponible et le devenir des polluants au sein de l’organisme. Les études réalisées en conditions de terrain et qui renseignent l’ensemble des données nécessaires pour estimer l’impact des MAFOR épandues sur prairies sont rares et peu conclusives. Elles reposent principalement sur l’application des boues de stations d’épuration sur des prairies et ne permettent pas de comparer l’impact des autres formes de MAFOR. Cependant, en prenant en compte l’ensemble des connaissances sur les transferts de polluants vers les produits animaux, il apparaît que les polluants organiques sont plus fortement absorbés que les Eléments Traces Métalliques (ETM). Seuls les composés peu biotransformés s’accumulent significativement dans les produits animaux. In fine, les polluants organiques se concentrent généralement dans les tissus et produits gras alors que les ETM se retrouvent préférentiellement dans les abats. Cependant, un manque manifeste de connaissances sur le devenir de contaminants organiques émergents (bromés, perfluorés, phtalates et paraffines) ou de certains ETM (vanadium et thallium) doit être signalé. De manière globale, les transferts de polluants organiques et inorganiques vers les produits animaux, suite à l’épandage de MAFOR sur les prairies, ne peuvent être exclus.
 
 
 
APA, Harvard, Vancouver, ISO, and other styles
10

KAZI TANI, H., R. GHERISSI, A. ZEGNOUNI, A. OTMANE, and A. TERFOUS. "Relations entre les débits liquides et les flux de matières en suspension dans la haute Tafna : cas de la partie amont du sous-bassin versant de l’oued Sebdou (Nord-Ouest algérien)." Techniques Sciences Méthodes, no. 7/8 (August 20, 2020): 79–89. http://dx.doi.org/10.36904/tsm/202007079.

Full text
Abstract:
Le présent article se concentre sur les phénomènes de crues qui engendrent un transport solide en suspension abondant, dans la haute Tafna (partie amont du bassin versant de l’oued Sebdou). Afin de mieux comprendre la dynamique sédimentaire dans ce bassin versant, on s’est basé sur l’exploitation des données des couples de débits liquides et des concentrations en matières en suspension à l’échelle instantanée, fournies par l’Agence nationale des ressources hydriques (ANRH). On a choisi les crues les plus importantes et les plus représentatives sur une période de 30 ans allant de 1970 à 2000, afin d’établir les relations d’hystérésis qui permettent de faire une classification en cinq catégories, présentant ainsi des dynamiques de transfert très différentes selon les crues. Les résultats obtenus dans ce travail ont montré l’existence de cinq classes de crue, celles qui dominent sont celles de la classe 2, avec une hystérésis de forme boucle ouverte sens horaire (sens des aiguilles d’une montre), elles se manifestent surtout en hiver et au printemps. Par ailleurs, les crues de la classe 3 qui présentent une hystérésis de forme boucle ouverte sens antihoraire (sens contraire des aiguilles d’une montre), apportent les valeurs maximales des flux solides et liquides, soit 37 % des charges en matières en suspension contre 29 % de flux liquide, tout en se manifestant par le même nombre de crues, sept durant l’automne, le printemps et l’été.
APA, Harvard, Vancouver, ISO, and other styles
11

Clément, M., R. Seux, and L. Orhon. "Influence de la distance sur le transfert par ruissellement de quelques substances phytosanitaires." Revue des sciences de l'eau 13, no. 1 (2005): 55–73. http://dx.doi.org/10.7202/705381ar.

Full text
Abstract:
Les travaux présentés dans cet article ont pour objet l'étude de l'influence de la distance parcourue par les écoulements de surface sur l'intensité des transferts par ruissellement des produits phytosanitaires. Une première série d'essais réalisée sur des parcelles expérimentales labourées mais non cultivées montre une rapide décroissance des quantités exportées avec l'augmentation de la distance de transfert. La quantité cumulée de matières transférées peut alors être décrite par une fonction exponentielle décroissante de la distance. Une seconde série d'expérimentations sur des parcelles cultivées en blé en hiver puis au printemps en maïs montre que l'intensité de cette réduction dépend pour une large part de la pénétration des molécules dans le sol, qui les soustrait aux entraînements de surface. Cette migration verticale est favorisée par la faible affinité des matières avec les composants du sol en particulier la matière organique. Elle est également plus forte quand la réserve en eau du sol est élevée, ce qui augmente la migration par diffusion des composés et la descente lors des pluies des tranches d'eau les plus contaminées. Par ailleurs des pratiques culturales laissant peu de sol nu limitent le ruissellement au profit de l'infiltration. Ces divers mécanismes expliquent que l'effet distance est moins sensible pour une molécule peu mobile comme le lindane que pour l'atrazine, dont la mobilité conduit à des exportations élevées lors des premières pluies qui suivent les traitements.
APA, Harvard, Vancouver, ISO, and other styles
12

Djadouf, Samia, Nasser Chelouah, and Abdelkader Tahakourt. "Influence de la distribution en taille (broyat de noyaux d’olive) sur les propriétés de la brique." Matériaux & Techniques 107, no. 4 (2019): 403. http://dx.doi.org/10.1051/mattech/2019024.

Full text
Abstract:
Ce travail évalue l’effet de la granulométrie du broyat de noyaux d’olive (BNO) sur les propriétés de la brique de terre cuite. Les noyaux d’olive concassés sont tamisés pour séparer les différents diamètres (1,5, 1, 0,5 et 0,25 mm). Nous avons confectionné quatre séries d’échantillons contenant 5, 10, 15 et 20 % de BNO dans la masse d’argile pour les essais. Les matières premières argile et BNO ont été caractérisées aux moyens d’analyses chimique et minéralogique, analyse thermique gravimétrique TG-DTG. Les propriétés physico-mécanique et thermique des éprouvettes cuites à 1000 °C, telles que, la porosité, l’absorption d’eau, la résistance à la compression, et la conductivité thermique ont été évaluées. Cette étude présente des résultats intéressants pour augmenter le pouvoir d’isolation des briques. Nous avons œuvré sur l’optimisation du diamètre de l’ajout, en travaillant sur la réduction des ponts thermiques et la diminution des transferts de chaleur dans les cavités produites par la consumation du BNO. Nous avons constaté que pour des diamètres plus petits de l’ajout; la conductivité thermique est de moindre avec des résistances à la compression avérées.
APA, Harvard, Vancouver, ISO, and other styles
13

Tessier, D. "Le sol, lieu d'échange et de transferts. Conséquences de leur utilisation par l'homme : un exemple français." Revue des sciences de l'eau 15 (April 12, 2005): 9–26. http://dx.doi.org/10.7202/705483ar.

Full text
Abstract:
Les sols exercent une multiplicité de fonctions de régulation entre l'atmosphère et les milieux aquatiques. Ceci est lié à leurs caractéristiques très variables dans l'espace, à la diversité des processus de nature physique, physico-chimique et biologique qui s'y déroulent, mais aussi à leur position d'interface entre l'atmosphère, le substrat géologique et les milieux aquatiques. Les échelles de temps qui président à sa genèse sont en général longues, du millier d'années au million d'années. Il s'agit donc d'une ressource non renouvelable à l'échelle humaine. Les changements dans les pratiques agricoles ont profondément modifié le cycle de l'eau. Ainsi la perte de matières organiques des sols tend à amplifier l'encroûtement de surface et le ruissellement et conduit à une érosion importante des terres. Les prélèvements des cultures étant plus importants, la reconstitution de la réserve en eau des sols est souvent problématique les années sèches. La science du sol doit fournir une réserve de connaissances dans laquelle la recherche appliquée puise des éléments d'interprétation de leur fonctionnement, et ce, afin de répondre aux besoins de l'agriculture et de l'environnement. Le sol doit alors être considéré comme un écosystème qui lui-même est une composante d'un écosystème plus vaste. Son étude nécessite de considérer une très large gamme d'échelles spatiales et d'échelles temporelles. Les évolutions des sols sont lentes et difficiles à déceler aisément. Les études sont donc complexes et nécessitent la durée. Elles permettent in fine d'évaluer les altérations possibles de ses diverses fonctions avec une estimation des risques résultant de cette altération. Ceci démontre qu'il convient de réévaluer le sol par rapport à ses fonctions environnementales, donc en ne se limitant pas à la seule fonction de production.
APA, Harvard, Vancouver, ISO, and other styles
14

Nejma, Faycal Ben, and Mohamed-Sassi Radhouani. "Étude des transferts couplés par convection et rayonnement dans un écoulement de type couche limite de fluide thermodépendant non gris: application d'un modèle statistique à bandes étroites." Revue Générale de Thermique 37, no. 6 (1998): 488–99. http://dx.doi.org/10.1016/s0035-3159(98)80065-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Orand, A., and M. Colon. "La fluorimétrie appliquée à la mesure du débit en milieu torrentie." Revue des sciences de l'eau 6, no. 2 (2005): 195–209. http://dx.doi.org/10.7202/705173ar.

Full text
Abstract:
L'utilisation de traçeurs pour la mesure des débits n'est pas un concept nouveau. Néanmoins les applications pratiques sont peu répandues, les méthodes au moulinet étant préférées, dans la plupart des cas, bien qu'elles s'avèrent souvent de mise en oeuvre difficile, surtout en régime torrentiel. C'est dans le cadre particulier d'études des transferts de pollution dans des bassins versants montagnards, que nous avons été amené à développer un dispositif de mesure intégré des débits basé sur des traçages à la rhodamine. Nous avons choisi la rhodamine wt pour son innocuité vis-à-vis de l'environnement et sa faible affinité pour les matières en suspension (MES). Un fluorimètre équipé d'une cuve à circulation, plaçé près de la rivière, permet de suivre en continu et in situ le signal de fluorescence. La mesure de la fluorescence permet de définir la concentration moyenne et le temps de passage du nuage et par conséquent le débit Q = M/ (Cm * t). La précision de la méthode dépend du soin avec lequel l'étalonnage au laboratoire a été effectué. On définit tout d'abord la constante spécifique du colorant en faisant varier température et concentration de rhodamine wt dans plusieurs solutions étalons. La constante de la rhodamine a été évaluée à : n = -0.024°C-1 et la fluorescence ramenée à 10 °C à : Fs = Ft.e-0.024(ts-t) La relation entre concentration et fluorescence est : Cµg. l-1 = 0.0047 F1.0049 La présence de matières en suspension (MES) a pour effet de diminuer la fluorescence du colorant. Mesurée dans des solutions d'eau, de rhodamine wt (0 à 0.3 µg. l-1) et de MES (0 à 2 g. l-1), la fluorescence de la rhodamine wt, pour les conditions extrêmes, est sous estimée de 6 %. La méthode de mesure des débits par coloration à la rhodamine wt a été appliquée à quelques rivières du Chablais (bassin versant du Léman) et, en particulier, a permis de définir la relation hauteur-débit de la transe au pont de Vongy.
APA, Harvard, Vancouver, ISO, and other styles
16

Le Goff, H., A. Ramadane, and P. Le Goff. "Un modèle simple de la pénétration couplée de chaleur et de matière dans l'absorption gaz-liquide en film ruisselant laminaire." International Journal of Heat and Mass Transfer 29, no. 4 (1986): 625–34. http://dx.doi.org/10.1016/0017-9310(86)90094-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Nguemté, Pulchérie Matsodoum, Guy Valérie Djumyom Wafo, Pierre François Djocgoue, Ives Magloire Kengne Noumsi, and Adrien Wanko Ngnien. "Phytoremédiation de sols pollués par les hydrocarbures – évaluation des potentialités de six espèces végétales tropicales." Revue des sciences de l’eau 30, no. 1 (2017): 13–19. http://dx.doi.org/10.7202/1040058ar.

Full text
Abstract:
Les écoulements et les transferts de matières à travers les sols et sous-sols sont des processus qui impactent les ressources en eau. Ainsi, la restauration des milieux dégradés participe à la préservation de la qualité de la ressource. Afin de contribuer à la décontamination des sols pollués par phytoremédiation - technique de dépollution basée sur l’action des plantes en association avec les micro-organismes du sol - des inventaires floristiques de sites potentiellement pollués et non pollués (témoins) par les hydrocarbures ont été réalisés dans quatre villes du Cameroun. Sur la base d'indicateurs floristiques, six espèces ont été sélectionnées, et leurs capacités phytoremédiatrices testées dans un sol pollué par du fioul à 82,5 mL∙kg‑1 de sol pendant 150 jours en présence de trois modalités : Tn - sols non pollués plantés (6), To - sols pollués non plantés (3) et Tp - sols pollués plantés (18). La biodiversité des sites pollués (106 espèces, 76 genres et 30 familles) est moins élevée que celle des témoins (166 espèces, 125 genres et 50 familles). Les espèces les plus fréquentes (Fri > 10 %) et abondantes (7 % < A < 10 %) sur les sites potentiellement pollués sont dominées par 15 espèces tropicales; parmi lesquelles, Eleusine indica (L.) Gaertn., Cynodon dactylon (L.) Pers., Alternanthera sessilis (L.) R. Br. ex DC†, Commelinpa benghalensis L., Cleome ciliata Schum. et Thonn., et Asystasia gangetica (L.) T. Anderson, sont utilisées dans des essais de phytoremédiation des sols contaminés au fioul domestique. Seules trois de ces espèces, notamment E. indica, C. dactylon et A. sessilis ont pu survivre et se développer. Contrairement à A. sessilis, E. indica et C. dactylon ne présentent pas de différence significative pour les paramètres de croissance considérés entre les modalités Tn et Tp. Les espèces E. indica et C. dactylon seraient donc plus tolérantes au fioul domestique que l’espèce A. sessilis.
APA, Harvard, Vancouver, ISO, and other styles
18

VAUCLIN, S., B. MOURIER та T. WINIARSKI. "De l’intérêt de coupler méthodes géophysiques et carottages sédimentaires pour l’étude des sédiments fluviaux". Techniques Sciences Méthodes 11 (20 листопада 2019): 33–49. http://dx.doi.org/10.36904/tsm/201911033.

Full text
Abstract:
Cet article vise à démontrer l’intérêt scientifique et opérationnel de coupler de façon systématique carottages et méthodes géophysiques pour l’étude et la gestion de sédiments fluviaux. Deux techniques géophysiques sont présentées, car particulièrement adaptées au contexte fluvial : le radar géologique ou GPR (ground penetrating radar) est fondé sur l’émission d’ondes électromagnétiques et permet d’obtenir une image des structures sédimentaires superficielles à terre ou en eau peu profonde, tandis que le sondeur de sédiment (ou sub bottom profiler) est une méthode acoustique qui s’utilise en contexte aquatique uniquement, généralement dans des profondeurs d’eau plus importantes que le GPR. La mise en œuvre des méthodes géophysiques demande peu d’efforts logistiques et donne des informations sur la géométrie du sous-sol avec une très bonne résolution, mais ne permet pas une caractérisation des sédiments. Les carottes sédimentaires – prélevées à terre ou en eau – peuvent être échantillonnées et analysées, ce qui permet une caractérisation des sédiments (granulométrie, chimie, teneur en matière organique, datation, etc.) ponctuelle dans l’espace. Les deux approches sont donc complémentaires et leur couplage permet d’étendre la caractérisation des carottes à l’ensemble des structures identifiées par les sondages géophysiques. Pour illustrer ce propos, la démarche est appliquée à un ouvrage hydraulique, où une combinaison de cinq profils GPR et trois carottes sédimentaires suffit pour identifier et représenter en trois dimensions l’ensemble des structures sédimentaires, déterminer la chronologie de remplissage de l’aménagement et calculer et localiser les volumes de sédiments plus ou moins pollués en polychlorobiphényles indicateurs (PCBi).
APA, Harvard, Vancouver, ISO, and other styles
19

Zaharia, Liliana. "Tendances dans l'évolution des transferts de matières en suspension, dans l'arc des Subcarpates, en relation avec les modifications du milieu/Trends in the evolution of the suspended load discharge in the Curvature Sub-Carpathians, in relation to the environmental changes." Géomorphologie : relief, processus, environnement 4, no. 1 (1998): 3–15. http://dx.doi.org/10.3406/morfo.1998.937.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Mechouk, C., A. Hauret, F. Khajehnouri, and P. Burnet. "Traitement des micropolluants en station de potabilisation." Techniques Sciences Méthodes, no. 6 (June 2019): 51–70. http://dx.doi.org/10.1051/tsm/201906051.

Full text
Abstract:
Dans le cadre de la réhabilitation de l’usine de potabilisation de Saint-Sulpice (Lausanne, Suisse), le service de l’eau de la ville de Lausanne a conduit des essais pilotes afin de choisir la filière de traitement la plus adaptée. L’usine actuelle de 1971 est une filière de traitement simple consistant en une filtration sur sable suivie d’une chloration. Malgré la production d’une eau potable de qualité satisfaisante, la filière actuelle n’est pas capable de faire face aux nouveaux défis du domaine du traitement de l’eau (micropolluants). Les essais pilotes, réalisés entre 2014 et 2017, ont porté sur des technologies améliorant l’abattement des micro-organismes, des matières en suspension (MES) et des micropolluants. Il existe trois méthodes pour abattre les micropolluants : l’adsorption sur charbon actif (CA), la filtration membranaire fine (nanofiltration ou osmose inverse) ou l’oxydation. Trois mises en œuvre de charbon ont été testées : filtration sur CA en grain (CAG), suspension de CA micrograins (CAµG) ou mise en contact de CA poudre (CAP) (sur l’usine de Lutry). Un pilote de nanofiltration a également été testé, ainsi qu’un procédé d’oxydation avancée (AOP), avec de l’ozone et du peroxyde d’hydrogène, suivi d’un filtre CAG. Chaque procédé présente des spécificités qui lui permettent de mieux abattre certaines molécules par rapport à d’autres. L’étude s’est particulièrement focalisée sur l’abattement des trois principaux micropolluants retrouvés en permanence en concentrations les plus élevées dans l’eau du lac Léman : metformine (450 ng/L), 1H-benzotriazole (80 ng/L) et gabapentine (30 ng/L). Hormis une élimination faible du 1H-benzotriazole (35 % environ), la filtration membranaire par nanofiltration ou par osmose inverse basse pression permet des abattements supérieurs à 80 % pour la majorité des micropolluants. L’AOP, couplée avec une filtration sur CAG, permet d’atteindre de bons rendements d’élimination des micropolluants (70 %). L’ozonation des micropolluants engendre des sous-produits, aujourd’hui difficilement identifiables et quantifiables. Globalement, le charbon actif permet un abattement moyen des micropolluants de 20 à 40 % selon sa mise en œuvre. La future filière sera composée autour d’une unité d’ultrafiltration (MES et micro-organismes). Le traitement des micropolluants sera, lui, assuré soit par une étape d’adsorption sur charbon actif, soit par une étape de nanofiltration ou une combinaison des deux. Le traitement par charbon actif pourrait éventuellement être amélioré par le couplage avec un procédé AOP.
APA, Harvard, Vancouver, ISO, and other styles
21

BROCHARD, M., K. DUHEN, and D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"." INRAE Productions Animales 27, no. 4 (2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Full text
Abstract:
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait
 Avant-propos
 Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années.
 Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011).
 Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité.
 Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières.
 Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine.
 Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis.
 Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique.
 Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc.
 Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières.
 Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises.
 Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus.
 RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298.
 Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855.
 Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011.
 Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403.
 Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268.
 Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412.
 Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17.
 Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334.
 Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145.
 Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234.
 Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282.
 Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41.
 Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340.
 Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.
APA, Harvard, Vancouver, ISO, and other styles
22

Sanchez, Florence, Pierre Moszkowicz, Radu Barna, and Jacques Méhu. "Modélisation des transferts de matière en milieu poreuxModèle couplé dissolution/diffusion." Déchets, sciences et techniques, no. 04 (1996). http://dx.doi.org/10.4267/dechets-sciences-techniques.680.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Mohamedou, Eby Ould, Mei-Yin Tang, Ahmed Lebkiri, et al. "Autopsie d’une membrane d’osmose inverse usagée prélevée dans le Parc National du Banc d’Arguin (PNBA) en Mauritanie : cas d’étude de Teichitt." 23, no. 2 (2010): 147–58. http://dx.doi.org/10.7202/039906ar.

Full text
Abstract:
L’objectif de ce travail est d’étudier l’état de vieillissement d’une membrane d’osmose inverse (OI) usagée prélevée en Mauritanie sur une unité de dessalement installée par la coopération canarienne à Teichitt dans le parc national du banc d’Arguin et de lui appliquer une démarche d’autopsie. L’usure de la membrane est caractérisée par une augmentation significative de la perméabilité hydraulique (25 % d’augmentation) et une diminution de la rétention en sels (10 % à 30 % de diminution). Un modèle de transfert de matière de type diffusion-convection permet de montrer l’augmentation du caractère convectif du transfert, lorsque la pression transmembranaire augmente et en particulier au-delà de 15 bars. Ainsi, l’usure de la membrane d’OI induit son rapprochement vers un transfert de matière combiné de solubilisation-diffusion/convection, typique d’une opération de nanofiltration (NF). L’analyse topographique par AFM de la surface de la membrane usagée en comparaison de la membrane neuve laisse apparaître des « cavités » à plusieurs endroits de la surface usagée traduisant la dégradation physique de celle-ci. De plus, la rugosité de surface de la membrane usagée avec 74 nm est apparue supérieure à celle de la membrane neuve avec 54 nm, ce qui nous informe de la présence de matières colmatantes, dont la nature reste encore à déterminer. Par contre, l’étude de la dégradation chimique des membranes usagées et neuves par la détermination de leur point isoélectrique (PIE) à partir d’une mesure de potentiel d’écoulement transmembranaire ne montre pas de modifications significatives de ce paramètre (PIE = 2,5), preuve de la non-dégradation chimique interne de la membrane. Enfin, les résultats d’une étude statistique préliminaire sont présentés. Celle-ci consiste à évaluer l’hétérogénéité de l’usure en matière de perméabilité hydraulique et de rétention d’une solution de NaCl 0,1 M à 15 bars et 19 °C, pour six coupons différents pris sur les trois feuilles de membranes constituant le module d’osmose inverse usagé. Une tendance se dégage, elle montre en particulier que l’usure est hétérogène, non seulement au sein d’une même feuille de membrane, mais aussi au sein des différentes membranes constituant le module. En résumé, il est observé pour la première fois qu’une vieille membrane d’OI employée pendant deux années pour le dessalement d’eau de mer, dans les conditions d’utilisation sahariennes en Mauritanie (sans pré-traitements), acquiert une microporosité qui lui confère les propriétés d’une membrane de nanofiltration.
APA, Harvard, Vancouver, ISO, and other styles
24

Jiongxin, Xu. "Influences of coupled wind–water processes on suspended sediment grain size: an example from tributaries of the Yellow River / Influences de processus couplés éoliens-hydriques sur la granulométrie des matières en suspension: exemple d'affluents du Fleuve Jaune." Hydrological Sciences Journal 50, no. 5 (2005). http://dx.doi.org/10.1623/hysj.2005.50.5.881.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Quinn, Kieran L., Corita R. Grudzen, Alexander K. Smith, and Allan S. Detsky. "Stop that Train! I Want to Get Off: Emergency Care for Patients with Advanced Dementia." Canadian Journal of General Internal Medicine 12, no. 1 (2017). http://dx.doi.org/10.22374/cjgim.v12i1.205.

Full text
Abstract:
The prevalence of advanced dementia (AD) is expected to increase dramatically over the next few decades. Patients with AD suffer from recurrent episodic illnesses that frequently result in transfers to acute care hospitals. The default pathway followed by some emergency physicians, internists and intensivists who see those patients is to prioritize disease-directed therapies over attention to the larger picture of AD. While this strategy is desired by many families, some families prefer a different approach. This essay examines the reason why there can be a failure to focus on the over-arching issue of AD and offers suggestions for improvement. Gaps in information and physician workload are important factors, but we argue that until physicians who see patients in emergency departments learn to pause first and ask “Why are we doing this?” they will revert to their comfort zone of ordering tests and therapies that may be unwanted. A separate emergency palliative care pathway may be one solution. Shifting the focus back to the larger picture of AD and away from the physiologic disturbance of the moment may alter the trajectory of care in ways that truly respect the wishes of some patients and their families. On s’attend à ce que la prévalence de la démence avancée (DA) augmente de façon extrêmement importante au cours des prochaines décennies. Or, il arrive que des patients atteints de DA soient aux prises avec des maladies épisodiques récurrentes qui entraînent fréquemment un transfert dans un hôpital de soins actifs. La voie suivie par défaut par certains urgentologues, internistes et intensivistes qui reçoivent ces patients consiste à donner la priorité à l’application de traitements axés sur la maladie plutôt qu’à aborder le problème plus large de la DA. Cette stratégie satisfait bien des familles, mais certaines préfèrent une autre approche. Cet article examine pourquoi on semble vouloir éviter de s’attarder au problème récurrent de la DA et offre des suggestions d’amélioration. Des lacunes en matière d’information ainsi que la charge de travail des médecins sont sûrement des facteurs importants qui mènent à cette situation. Toutefois, nous soutenons que tant que les médecins qui voient ces patients au service des urgences ne prendront pas le temps de s’arrêter et de se questionner sur leur choix d’actions, ils se limiteront à se retirer dans leur zone de confort qui consiste à prescrire des tests et des traitements qui risquent d’être inopportuns. Une voie distincte en matière de soins palliatifs d’urgence peut s’avérer être une solution. En déplaçant l’accent mis sur les troubles physiologiques du moment pour le mettre sur le problème plus large de la DA, la trajectoire des soins pourrait être modifiée de façon à mieux respecter les désirs de certains patients et de leur famille.An 84-year-old bed-bound man with severe Alzheimer’s dementia presents to the emergency department with pneumonia, accompanied by his 3 daughters. He has been hospitalized 4 times in the past 2 years for antibiotic-associated Clostridium difficile diarrhea. Antibiotics and intravenous fluids were started by the first physicians who saw him. An internist was consulted to take over his care.In 2016, 564,000 Canadians were living with dementia. Each year 25,000 new cases of dementia are diagnosed, and it is expected that by 2030 there will be close to 1 million Canadians who have dementia.1 People with advanced dementia (AD) suffer with cognitive deficits and are unable to communicate, ambulate and have incontinence. They are at high risk for imminent death,2,3 an under-recognized fact even among health care professionals.4 In contrast to patients with terminal cancer and end stage heart disease, most patients with AD do not die from devastating acute events (like bowel obstruction, or heart failure) that result from the progression of their primary disease. Instead, they die from recurrent episodic illnesses that can be treated with relatively simple therapeutic responses (like intravenous fluids or antibiotics). 3 These include pneumonias, urinary tract and skin infections, influenza, problems with eating (including aspiration) and dehydration. It is not surprising that in the United States that 19% of nursing home residents with cognitive impairment experience at least one transfer to a hospital in the last 120 days of life.5When these patients arrive in the emergency department (ED), the default pathway is to prioritize disease-directed therapies (e.g., intravenous fluid and antibiotics) over attention to the larger picture of AD. The physiologic disturbances receive intense focus and the AD is seemingly forgotten. These patients often suffer from treatable symptoms, including pain and shortness of breath.3 In some (but not all) cases, patients may receive care they don’t really want, families may be afraid to express their true wishes, and health care professionals may deliver care they suspect is unnecessary, or even harmful. This essay examines the reasons why this phenomenon occurs and offers suggestions for improvement by encouraging acute care clinicians to pause and ask themselves, “Why are we doing this?” and by engage family members in focused goals of care discussions that include outcomes of aggressive disease-directed treatments and palliative approaches.There are many reasons why the physicians who treat these patients in acute care hospitals (primarily emergency physicians, internists/hospitalists and intensivists) prioritize life-sustaining therapies over relief of burdensome symptoms as the default strategy. Information gaps affect the process of care. These physicians likely assume that a transfer to an acute care facility indicates the (sometimes mistaken) desire for life-sustaining interventions by the patient’s relatives. Transfer decisions are a human endeavour, and thus are subject to error6 especially when personnel worry about blame. While nearly half of all transfers from nursing homes to the ED are for cardiovascular and respiratory problems, 7 key factors influencing decisions to transfer as reported by family physicians include medico-legal concerns, family pressure, the capability of nursing home staff and the physician’s workload.8Even in Ontario, where nursing home residents are legally required to have annually updated instructions about whether transfer to acute care hospitals is indicated, the process only works as well as the nature of the counselling and discussion (which is often perfunctory) that takes place before the patients or their legal substitutes sign that document. In the United States, it is unclear how and whether the rapid uptake of Physician Orders for Life-Sustaining Treatment in nursing homes has affected end-of-life care in AD.9 From an economic and medico-legal perspective, there is no incentive for nursing homes or their staff to manage the acutely ill nursing home patient themselves, and every incentive to transfer care to an ED even when “no transfer” instructions are clearly recorded. The physician who meets the patient for the first time in the ED often lacks familiarity with the patient’s clinical course and his or her family, which coupled with a lack of communication training for these circumstances, inhibits addressing goals of care directly.10Physician workload is also an important factor. In a busy ED, an empathetic conversation that elucidates patients’ goals of care, educates families about the outcomes of care11 and offers the option of prioritizing attention to symptoms takes time and requires a higher cognitive load than ordering tests, intravenous fluids and antibiotics. In addition, the process of acute care, once initiated, may be a contributing factor. Family members see that life-prolonging therapies can be given, making it more difficult for them to decide to forgo disease-directed therapies once started without being overwhelmed by a sense of guilt. Finally, precise prognostication in a patient with AD is fraught with hazards.12 All of these factors play a role, but overall, until the physicians who see patients in the ED acquire the expertise to routinely address goals of care, and experience the rewards and sense of professional fulfillment that can be derived from sparing patients unwanted invasive care, the opportunity to prioritize comfort may not be offered. Those physicians will revert to their comfort zone of checking the electrolytes, obtaining a chest x-ray and urine culture which then results in a discussion that starts by asking families questions like, “Do you want us to treat the hypernatremia?” When phrased that way, few family members (even those who are physicians) are prepared to say “No.”While assessing goals of care for patients with AD may currently be viewed as impractical in the busy ED, perhaps the right models have not been proposed. Complexity has not deterred the rapid response in EDs for patients with acute strokes and ST-elevation myocardial infarctions. One solution may be to develop a separate “emergency palliative care pathway” where the primary task is prioritizing relief of burdensome symptoms and eliciting true preferences.13 thus avoiding stressful lengthy stays in the chaotic ED where patients with AD are often of low priority. Interventions aimed upstream from the ED may include increasing resources for training of nursing home staff along with the provision of decision aids to assist caregivers in the clarification of goals of care prior to transfer to the ED.14Some patients with AD and their families may prefer prioritizing comfort above all else but may not be offered the chance to make that choice. In a survey of elderly hospitalized Canadians, 70% reported wanting to focus on providing comfort rather than life-prolonging treatment, yet 54% of these patients are admitted to intensive care units at the end of life. 15 Even if this circumstance occurs in a minority of the dementia patients who are sent to EDs, the substantial rise in the number of people with dementia means that it will occur much more commonly in the future. In these cases, emergency physicians and the consultants that they approach for help can play a critical role if they push the pause button before beginning empiric disease-directed therapies, and simply ask patients’ families, “What is your understanding of your loved one’s prognosis?” and, “ What are you hoping for?” On the one hand, these conversations take time. On the other, they can be efficient, focus on these simple questions, and describe outcomes of care including potential discomforts associated with treatments. By shifting the focus back to the larger picture of AD and away from the physiologic disturbance of the moment, they may alter the trajectory of care, ultimately reducing the burden to patients and their families. We can facilitate patients’ wishes and honour the truly vital role that family members play as members of the health care team.Returning to the case, after a 7-minute discussion of the goals and options for care, led by the internist, the patient’s daughters were unable to decide upon the best course of treatment. A phone call to his wife was made, and she indicated that comfort measures were “what he would want.” After initiating oxygen and subcutaneous morphine for relief of pain and dyspnea in the ED, the patient was transferred to the ward with palliative care physicians. He received comfort-directed care and died peacefully 4 days later surrounded by his family. Competing InterestsNone declared AcknowledgementsWe thank S. Ryan Greysen MD, Gurpreet Dhaliwal (both of University of California San Francisco), Lewis A. Lipsitz MD (Harvard), Howard Ovens MD and Barry J. Goldlist MD (both of University of Toronto) for comments on an earlier draft.References1. Alzheimer Society of Canada. Report summary Prevalence and monetary costs of dementia in Canada (2016): a report by the Alzheimer Society of Canada. Health promotion and chronic disease prevention in Canada: research, policy and practice. October 2016:231–32.2. Morrison RS, Siu AL. Survival in end-stage dementia following acute illness. JAMA 2000;284(1):47–52.3. Mitchell SL, Teno JM, Kiely DK, et al. The clinical course of AD. N Engl J Med 2009;361(16):1529–38. doi:10.1056/NEJMoa0902234.4. Chang A, Walter LC. Recognizing dementia as a terminal illness in nursing home residents: Comment on "Survival and comfort after treatment of pneumonia in AD." Arch Intern Med 2010;170(13):1107–1109. doi:10.1001/archinternmed.2010.166.5. Gozalo P, Teno JM, Mitchell SL, et al. End-of-life transitions among nursing home residents with cognitive issues. N Engl J Med 2011;365(13):1212–21. doi:10.1056/NEJMsa1100347.6. Stephens CE, Newcomer R, Blegen M, Miller B, Harrington C. Emergency department use by nursing home residents: effect of severity of cognitive impairment. Gerontologist 2012;52(3):383–93. doi:10.1093/geront/gnr109.7. Jensen PM, Fraser F, Shankardass K, Epstein R, Khera J. Are long-term care residents referred appropriately to hospital emergency departments? Can Fam Physician 2009;55(5):500–505.8. McDermott C, Coppin R, Little P, Leydon G. Hospital admissions from nursing homes: a qualitative study of GP decision making. Br J Gen Pract 2012;62(601):e538–e545. doi:10.3399/bjgp12X653589.9. Halpern SD. Toward evidence-based end-of-life care. N Engl J Med 2015;373(21):2001-2003. doi:10.1056/NEJMp1509664.10. Lamba S, Nagurka R, Zielinski A, Scott SR. Palliative care provision in the emergency department: barriers reported by emergency physicians. J Palliat Med 2013;16(2):143–47. doi:10.1089/jpm.2012.0402.11. Givens JL, Jones RN, Shaffer ML, et al. Survival and comfort after treatment of pneumonia in AD. Arch Intern Med 2010;170(13):1102–107. doi:10.1001/archinternmed.2010.181.12. Mitchell SL, Miller SC, Teno JM, et al. Prediction of 6-month survival of nursing home residents with advanced dementia using ADEPT vs hospice eligibility guidelines. JAMA 2010;304(17):1929–35. doi:10.1001/jama.2010.1572.13. Grudzen CR, Stone SC, Morrison RS. The palliative care model for emergency department patients with advanced illness. J Palliat Med 2011;14(8):945–50. doi:10.1089/jpm.2011.0011.14. Hanson LC, Zimmerman S, Song M-K, et al. Effect of the goals of care intervention for AD. JAMA Intern Med 2017;177(1):24–28. doi:10.1001/jamainternmed.2016.7031.15. Fowler R, Hammer M. End-of-life care in Canada. Clin Invest Med 2013;36(3):E127–E132.
APA, Harvard, Vancouver, ISO, and other styles
26

Sneessens, Henri, and Bruno Van der Linden. "Numéro 33 - septembre 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15943.

Full text
Abstract:
Les préretraites ont été conçues initialement comme un instrument visant à répondre aux difficultés créées par les destructions d’emploi et la montée du chômage des années 70-80 et à privilégier l’avenir en privilégiant l’emploi des jeunes. L’instrument est-il approprié ? S’il ne l’est pas, quelles orientations suivre ? Et que penser des propositions gouvernementales dans le document "Vieillissement actif" ?
 Les faits observés
 Quand on regarde les faits au cours des trente dernières années, on constate le recours massif aux retraits du marché du travail (9 % de la population active en 2005). Parallèlement, sur la même période, on constate une baisse des taux d’emploi. Les taux de chômage des classes d’âge directement concernées sont relativement bas également. Il n’en est pas de même des autres classes d’âge, qui ne semblent pas avoir bénéficié de ces retraits massifs. Le taux d’emploi des 50-64 a certes augmenté sensiblement en Belgique au cours des dernières années. Mais le redressement est nettement moins rapide qu’aux Pays-Bas par exemple; il reste également trop faible pour ramener l’écart avec la France à la valeur observée au début des années 80.
 Diagnostic
 Au-delà de l’observation des faits, l’analyse que nous résumons dans ce numéro 33 de Regards économiquesconduit à la conclusion que les préretraites n’ont pas soutenu le niveau de l’emploi en Belgique. À moyen et long terme, les coûts de production sont un déterminant central du volume d’activité et de l’emploi. La contraction de la population active entraîne des pressions salariales accrues qui se répercutent sur les prix de vente et sur le volume d’activité, et donc sur l’emploi. Ces effets négatifs sur l’emploi sont renforcés lorsque la réduction de population active implique des dépenses supplémentaires en matière de pensions de retraite et un relèvement des taxes sur le travail.
 Les destructions d’emplois sont un phénomène permanent dans nos économies, phénomène qui s’accompagne de créations d’emplois, dont on parle sans doute moins. Les destructions d’emplois impliquent un coût privé pour les entreprises comme pour les travailleurs concernés. Les mesures facilitant les retraits de la vie active réduisent les coûts privés en limitant la perte de revenu du travailleur et les coûts de restructuration des entreprises. Elles impliquent simultanément un coût important pour la collectivité en réduisant durablement le nombre d’emplois et en accroissant la charge des transferts et pensions. Ce coût pour la collectivité est à prendre en compte si l’on veut assurer la pérennité de notre système de sécurité sociale.
 Les retraits anticipés ne sont pas toujours la conséquence de restructurations. Une fraction non négligeable des retraits anticipés semble refléter un choix délibéré. La taxe implicite sur le revenu du travail des personnes en fin de carrière due au système de (pré-)retraite atteint 55 % pour un travailleur de 60-65 ans. Un taux de taxation de 55 % signifie qu’en travaillant une année de plus ondiminue la valeur actualisée des revenus de pension futurs d’un montant égal à 55 % du dernier salaire. Cette taxe implicite incite à se retirer prématurément du marché du travail.
 Orientations de politique économique
 Ce diagnostic remet en cause l’idée selon laquelle maintenir les travailleurs âgés en emploi constitue une menace pour l’emploi des "plus jeunes". Dans ce contexte et compte tenu de l’évolution démographique et de la diminution des taux de mortalité, la fin des facilités de retraits de vie active se justifie, si pas pour tous, en tout cas pour beaucoup. Certes, pas d’un coup car l’adaptation des mentalités comme celle de la législation et des conventions ne peuvent s’effectuer instantanément.
 Comment s’y prendre ? Quelques balises
 (i) Mettre fin aux distorsions qui pénalisent la poursuite de la vie active
 - Retraites anticipées
 Pour les travailleurs d’au moins 60 ans dont la carrière est jugée complète du point de vue du calcul des retraites, la décision d’anticiper ou non le passage à la retraite ne doit pas entraîner de changement dans la valeur actualisée des revenus de pension futurs. La décision d’anticiper sa retraite doit seulement entraîner une diminution de la valeur annuelle de la pension. Le cumul d’un salaire et d’un revenu de pension doit alors être autorisé. Les mêmes principes s’appliquent aux travailleurs dont la carrière est incomplète, avec pour seule différence la possibilité de continuer d’accumuler des droits à la pension jusqu’à l’âge de 65 ans, selon les règles en vigueur aujourd’hui. Cette approche des retraites anticipées permet d’éliminer la taxation implicite des revenus du travail impliquée par le système actuel.Elle contribue à améliorer le bien-être des plus âgés, à stimuler l’emploi et améliorer l’équilibre des finances publiques.
 - Destructions d’emploi
 En cas de licenciement, nous plaidons pour que la personne reste demandeur d’emploi, quel que soit son âge, et que la période de chômage reste une période assimilée du point de vue du calcul de la retraite. Nous plaidons pour que l’allocation complémentaire négociée lors d’un licenciement ou d’une cessation d’activité anticipée soit traitée comme un salaire du point de vue de la (para)fiscalité et qu’elle soit payée jusqu’à l’âge de la retraite anticipée, y compris lorsqu’il y a reprise d’emploi. Ceci devrait encourager la recherche d’emploi et l’acceptation d’offres d’emploi le cas échéant moins rémunératrices.
 (ii) Des politiques basées sur une vision dynamique de l’évolution des carrières
 Favoriser, tout au long de la carrière, des comportements qui permettent de soutenir les exigences du marché du travail : formation, possibilité de retrait temporaire pour mieux concilier vie professionnelle et vie privée, attention permanente aux conditions de travail. Le développement de retraits du marché du travail à temps partiel ou de formules de réduction du temps de travail, accompagnés d’une allocation sociale, nous paraissent la meilleure réponse au problème des métiers usants. On ne saurait sous-estimer néanmoins la difficulté d’énoncer des critères objectifs permettant de définir sans ambiguïté les métiers usants, physiquement ou psychologiquement.
 (iii)Réduire le coût des travailleurs âgés peu qualifiés
 L’objectif est de stimuler en priorité l’emploi des moins qualifiés, groupe dans lequel on observe des retraits d’activité les plus importants et les plus précoces, dès l’âge de 50 ans. Le critère d’âge utilisé seul est un mauvais critère de ciblage des allégements structurels. La variable "âge" a du sens (i) si elle est combinée avec d’autres critères (en particulier le niveau des salaires, comme approximation du niveau de qualification) et (ii) si l’on évite des seuils tranchés, sources d’effets pervers sur le groupe d’âge immédiatement inférieur.
 (iv)Une réflexion de fond sur les progressions salariales à l’ancienneté
 Les progressions salariales à l’ancienneté ou en fonction de l’âge présentent des avantages et des inconvénients. Ce point mérite une réflexion de fond, qui peut être couplée à la discussion sur le calcul des droits à la pension (vus comme un salaire différé).
 (v) Le renforcement de la protection de l’emploi : une fausse solution
 L’obligation d’outplacement au-delà d’un seuil d’âge et à charge de l’entreprise, que l’on envisage actuellement, impliquerait une hausse du coût de licenciement des travailleurs "âgés", et donc un frein à leur embauche. Si les prestations de service d’outplacement sont en elles-mêmes efficaces, leur financement gagnerait plutôt à se faire via un fonds interprofessionnel alimenté par des cotisations d’employeurs calculées en fonction de leur pratique historique de licenciement quel que soit l’âge du travailleur.
APA, Harvard, Vancouver, ISO, and other styles
27

Sneessens, Henri, and Bruno Van der Linden. "Numéro 33 - septembre 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2005.09.02.

Full text
Abstract:
Les préretraites ont été conçues initialement comme un instrument visant à répondre aux difficultés créées par les destructions d’emploi et la montée du chômage des années 70-80 et à privilégier l’avenir en privilégiant l’emploi des jeunes. L’instrument est-il approprié ? S’il ne l’est pas, quelles orientations suivre ? Et que penser des propositions gouvernementales dans le document "Vieillissement actif" ?
 Les faits observés
 Quand on regarde les faits au cours des trente dernières années, on constate le recours massif aux retraits du marché du travail (9 % de la population active en 2005). Parallèlement, sur la même période, on constate une baisse des taux d’emploi. Les taux de chômage des classes d’âge directement concernées sont relativement bas également. Il n’en est pas de même des autres classes d’âge, qui ne semblent pas avoir bénéficié de ces retraits massifs. Le taux d’emploi des 50-64 a certes augmenté sensiblement en Belgique au cours des dernières années. Mais le redressement est nettement moins rapide qu’aux Pays-Bas par exemple; il reste également trop faible pour ramener l’écart avec la France à la valeur observée au début des années 80.
 Diagnostic
 Au-delà de l’observation des faits, l’analyse que nous résumons dans ce numéro 33 de Regards économiquesconduit à la conclusion que les préretraites n’ont pas soutenu le niveau de l’emploi en Belgique. À moyen et long terme, les coûts de production sont un déterminant central du volume d’activité et de l’emploi. La contraction de la population active entraîne des pressions salariales accrues qui se répercutent sur les prix de vente et sur le volume d’activité, et donc sur l’emploi. Ces effets négatifs sur l’emploi sont renforcés lorsque la réduction de population active implique des dépenses supplémentaires en matière de pensions de retraite et un relèvement des taxes sur le travail.
 Les destructions d’emplois sont un phénomène permanent dans nos économies, phénomène qui s’accompagne de créations d’emplois, dont on parle sans doute moins. Les destructions d’emplois impliquent un coût privé pour les entreprises comme pour les travailleurs concernés. Les mesures facilitant les retraits de la vie active réduisent les coûts privés en limitant la perte de revenu du travailleur et les coûts de restructuration des entreprises. Elles impliquent simultanément un coût important pour la collectivité en réduisant durablement le nombre d’emplois et en accroissant la charge des transferts et pensions. Ce coût pour la collectivité est à prendre en compte si l’on veut assurer la pérennité de notre système de sécurité sociale.
 Les retraits anticipés ne sont pas toujours la conséquence de restructurations. Une fraction non négligeable des retraits anticipés semble refléter un choix délibéré. La taxe implicite sur le revenu du travail des personnes en fin de carrière due au système de (pré-)retraite atteint 55 % pour un travailleur de 60-65 ans. Un taux de taxation de 55 % signifie qu’en travaillant une année de plus ondiminue la valeur actualisée des revenus de pension futurs d’un montant égal à 55 % du dernier salaire. Cette taxe implicite incite à se retirer prématurément du marché du travail.
 Orientations de politique économique
 Ce diagnostic remet en cause l’idée selon laquelle maintenir les travailleurs âgés en emploi constitue une menace pour l’emploi des "plus jeunes". Dans ce contexte et compte tenu de l’évolution démographique et de la diminution des taux de mortalité, la fin des facilités de retraits de vie active se justifie, si pas pour tous, en tout cas pour beaucoup. Certes, pas d’un coup car l’adaptation des mentalités comme celle de la législation et des conventions ne peuvent s’effectuer instantanément.
 Comment s’y prendre ? Quelques balises
 (i) Mettre fin aux distorsions qui pénalisent la poursuite de la vie active
 - Retraites anticipées
 Pour les travailleurs d’au moins 60 ans dont la carrière est jugée complète du point de vue du calcul des retraites, la décision d’anticiper ou non le passage à la retraite ne doit pas entraîner de changement dans la valeur actualisée des revenus de pension futurs. La décision d’anticiper sa retraite doit seulement entraîner une diminution de la valeur annuelle de la pension. Le cumul d’un salaire et d’un revenu de pension doit alors être autorisé. Les mêmes principes s’appliquent aux travailleurs dont la carrière est incomplète, avec pour seule différence la possibilité de continuer d’accumuler des droits à la pension jusqu’à l’âge de 65 ans, selon les règles en vigueur aujourd’hui. Cette approche des retraites anticipées permet d’éliminer la taxation implicite des revenus du travail impliquée par le système actuel.Elle contribue à améliorer le bien-être des plus âgés, à stimuler l’emploi et améliorer l’équilibre des finances publiques.
 - Destructions d’emploi
 En cas de licenciement, nous plaidons pour que la personne reste demandeur d’emploi, quel que soit son âge, et que la période de chômage reste une période assimilée du point de vue du calcul de la retraite. Nous plaidons pour que l’allocation complémentaire négociée lors d’un licenciement ou d’une cessation d’activité anticipée soit traitée comme un salaire du point de vue de la (para)fiscalité et qu’elle soit payée jusqu’à l’âge de la retraite anticipée, y compris lorsqu’il y a reprise d’emploi. Ceci devrait encourager la recherche d’emploi et l’acceptation d’offres d’emploi le cas échéant moins rémunératrices.
 (ii) Des politiques basées sur une vision dynamique de l’évolution des carrières
 Favoriser, tout au long de la carrière, des comportements qui permettent de soutenir les exigences du marché du travail : formation, possibilité de retrait temporaire pour mieux concilier vie professionnelle et vie privée, attention permanente aux conditions de travail. Le développement de retraits du marché du travail à temps partiel ou de formules de réduction du temps de travail, accompagnés d’une allocation sociale, nous paraissent la meilleure réponse au problème des métiers usants. On ne saurait sous-estimer néanmoins la difficulté d’énoncer des critères objectifs permettant de définir sans ambiguïté les métiers usants, physiquement ou psychologiquement.
 (iii)Réduire le coût des travailleurs âgés peu qualifiés
 L’objectif est de stimuler en priorité l’emploi des moins qualifiés, groupe dans lequel on observe des retraits d’activité les plus importants et les plus précoces, dès l’âge de 50 ans. Le critère d’âge utilisé seul est un mauvais critère de ciblage des allégements structurels. La variable "âge" a du sens (i) si elle est combinée avec d’autres critères (en particulier le niveau des salaires, comme approximation du niveau de qualification) et (ii) si l’on évite des seuils tranchés, sources d’effets pervers sur le groupe d’âge immédiatement inférieur.
 (iv)Une réflexion de fond sur les progressions salariales à l’ancienneté
 Les progressions salariales à l’ancienneté ou en fonction de l’âge présentent des avantages et des inconvénients. Ce point mérite une réflexion de fond, qui peut être couplée à la discussion sur le calcul des droits à la pension (vus comme un salaire différé).
 (v) Le renforcement de la protection de l’emploi : une fausse solution
 L’obligation d’outplacement au-delà d’un seuil d’âge et à charge de l’entreprise, que l’on envisage actuellement, impliquerait une hausse du coût de licenciement des travailleurs "âgés", et donc un frein à leur embauche. Si les prestations de service d’outplacement sont en elles-mêmes efficaces, leur financement gagnerait plutôt à se faire via un fonds interprofessionnel alimenté par des cotisations d’employeurs calculées en fonction de leur pratique historique de licenciement quel que soit l’âge du travailleur.
APA, Harvard, Vancouver, ISO, and other styles
28

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15993.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude.
 De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc.
 Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.).
 Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire).
 Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides.
 Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.).
 Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée.
 Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres).
 Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
29

De Briey, Valérie. "Numéro 28 - mars 2005." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2005.03.01.

Full text
Abstract:
Les Nations Unies ont proclamé l’année 2005 "Année Internationale du Microcrédit". A cette occasion, la Plate-forme belge de la microfinance et la Coopération belge au développement (DGCD) organisent les 3 et 4 mars un séminaire de réflexion sur la microfinance. Dans le dernier numéro de Regards économiques, Valérie de Briey, qui est responsable de recherches au Cerisis, membre de la plate-forme belge de microfinance et du GRAP-OSC (CUD-DGCD), dresse un large panorama du rôle et des missions de la microfinance dans les pays en développement. Elle présente également les questions importantes qui seront débattues lors du séminaire des 3 et 4 mars. Ce communiqué résume les principaux points de son étude.
 De tous temps, de nombreuses activités de taille très réduite (qualifiées habituellement de micro-entreprises) se sont développées dans les pays du Sud, bien souvent partiellement ou totalement en marge des règles législatives et administratives, pour permettre aux populations pauvres de subsister. Celles-ci regroupent des activités aussi diverses que marchands ambulants, petits artisans, kiosques à journaux, taxis, vendeurs de rue, bazars, etc.
 Parmi les multiples contraintes auxquelles sont confrontées les micro-entreprises, la difficulté d’accès à des sources de financement extérieures représente encore aujourd’hui une entrave principale à leur bon développement. Elles ont en effet besoin d'un capital suffisant pour financer leurs équipements, leurs achats de fournitures, de matières premières, etc. Or, ce capital leur a longtemps fait défaut car les petites sommes demandées par ces micro-entrepreneurs, l’absence de garantir à offrir et bien souvent la nature risquée du projet rebutaient les banques commerciales traditionnelles. C’est pourquoi différents intermédiaires financiers spécialisés dans l’attention à ce type de clientèle ont vu le jour. Ces intermédiaires sont souvent qualifiés d’ «institutions de microfinance» (IMF). Leur rôle consiste à offrir des services financiers de base (épargne, crédit, assurance, transfert de fonds, etc.), aux montants réduits, à des populations pauvres afin de leur donner la possibilité d’investir et de se prémunir en cas de coups durs (conditions climatiques défavorables à la production, dépenses imprévues liées à une maladie ou à la perte de biens, etc.). Par ailleurs, la microfinance favorise également des retombées positives sur la famille en général : amélioration des conditions de vie, valorisation de l’auto-estime, financement de la scolarisation, des soins de santé, etc.).
 Il a cependant fallu attendre les années quatre-vingt pour que ce secteur soit véritablement reconnu comme générateur de revenus et créateur d’emplois. Depuis lors, il fait l’objet d’une attention toute particulière de la part tant des praticiens du développement, des politiciens que des chercheurs universitaires. Aujourd’hui, la micro-finance fait partie intégrante des politiques de développement des pays pauvres. En 1998 déjà, l’Assemblée Générale des Nations Unies avait proclamé l’année 2005 l’Année Internationale du micro-crédit pour marquer l’importance de cet instrument pour éradiquer la pauvreté. Son objectif à l’époque était de réduire de moitié les populations pauvres qui vivent sous le seuil de pauvreté d’ici 2015 (Objectifs de Développement pour le Millénaire).
 Depuis les expériences pionnières jusqu’à sa forte médiatisation de nos jours, le champ de la microfinance a fortement évolué. Il existe une pluralité d’institutions de microfinance faisant appel à des statuts juridiques différents (fondations, coopératives d’épargne et de crédit, institutions publiques, sociétés anonymes, etc.) dont les modes de fonctionnement et les objectifs diffèrent fortement. Les IMF sont aujourd’hui largement tributaires d’un discours néo-libéral prônant l’absolutisation du marché et l’adoption d’une démarche commerciale. Pour des institutions telles que Banque Mondiale ou les Nations Unies, il faut en effet parvenir à la construction de «marchés financiers intégrants» afin de mettre en place des systèmes de microfinance pérennes et qui touchent un grand nombre de populations pauvres. Elles préconisent dès lors l’institutionnalisation des programmes de microfinance, autrement dit, la mise en place d’institutions de microfinance rentables, répondant aux lois des marchés financiers concurrentiels et faisant appel à un mode de gouvernance efficace. Pour ces organismes en effet, les institutions à vocation sociale (de type ONG) sont la plupart du temps fragiles, tributaires des subsides en provenance des bailleurs de fonds et disposent d’une capacité limitée à faire face à la demande massive de microcrédits. D’autres personnes au contraire, principalement des acteurs de terrain soucieux de rester au service des plus démunis, s’interrogent sur les dérives potentielles de l’adoption d’une telle démarche et craignent que la poursuite de but de lucre conduise à l’écartement d’une clientèle plus défavorisée afin de satisfaire les critères de rentabilité propres aux marchés financiers. Elles réclament notamment le maintien de subsides.
 Cette opposition entre ces deux visions de la microfinance constitue ce que Morduch (1998) a qualifié de "microfinance schism". Ce schisme est également marqué par les méthodes d’évaluation auxquelles recourent les partisans de chacune des deux approches (études d’impact, instruments de rating, etc.).
 Plus qu’antagonistes, ces deux visions de la microfinance sont, selon Valérie de Briey, complémentaires. La pertinence de l’une ou l’autre doit s’évaluer au regard des acteurs en présence, de la cible poursuivie, de la densité de population, de la technologie disponible, du contexte économique, institutionnel, etc. La pérennité d’une IMF ne pourra en effet être atteinte que dans la mesure où l’institution peut opérer à grande échelle et avoir un volume d’activité tel que le point d’équilibre puisse être atteint. Il est donc par exemple nécessaire que la densité de la population soit suffisamment importante pour toucher un grand nombre d’emprunteurs. Par ailleurs, l’IMF doit également disposer d’une technologie appropriée pour évaluer rapidement les demandes de crédit et maintenir à jour l’information commerciale et financière. Sans ces conditions, la productivité des membres internes à l’IMF ne pourra pas être suffisante et la croissance du portefeuille assurée.
 Par ailleurs, dans le choix de l’approche dans laquelle doit s’inscrire l’IMF, il importe également selon Valérie de Briey de se pencher sur le degré de précarité de la cible visée. Certaines institutions, soucieuses de veiller à la rentabilité de leurs opérations de prêts, excluent en effet de leurs clients, certains secteurs d’activité jugés comme trop risqués (citons en autres les conducteurs de taxi) et mettent des conditions d’accès telles que de nombreux micro-entrepreneurs se trouvent hors des conditions d’accès (comme par exemple l’ancienneté minimale exigée ou le degré de formalisation de la micro-entreprise). Il y a donc place dans certaines zones géographiques pour la coexistence d’IMF différenciées (par exemple des sociétés anonymes adoptant une logique de rentabilité et des ONG adoptant une logique de développement de populations pauvres).
 Il est donc nécessaire, conclut l’auteur, que les limites du discours dominant orienté sur une approche de marchés soient reconnues et que les bailleurs de fonds adoptent une attitude différenciée selon les intermédiaires financiers considérés, et le contexte économique, social et institutionnel du pays dans lequel ces intermédiaires opèrent. Il faudrait en outre que les bailleurs de fonds adoptent des critères d’évaluation des IMF en cohérence avec la mission poursuivie par l’institution d’appui et ses valeurs fondatrices. Plus qu’antagonistes, les différentes méthodes d’évaluation proposées dans le champ de la microfinance sont, de l’avis de Valérie de Briey, elles aussi complémentaires. Leur utilité dépend tout à la fois de la mission de l’IMF (à vocation sociale ou financière), de la ou des personnes qui évaluent (bailleurs de fonds, membres internes, etc.), de la perspective adoptée (du point de vue des clients, des bailleurs de fonds, de l’institution, etc.) et des moyens dont disposent les évaluateurs. L’important est que les personnes en présence s’accordent sur l’objet de l’évaluation. L’auteur anticipe ainsi sur certaines questions qui seront débattues lors d’un séminaire de réflexion organisé par la plate-forme belge de Microfinance et la DGCD les 3 et 4 mars au Palais d’Egmont à Bruxelles à l’occasion de l’année 2005 proclamée «Année Internationale du Microcrédit» par les Nations Unies.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography