To see the other types of publications on this topic, follow the link: Décision opérationnelle.

Journal articles on the topic 'Décision opérationnelle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 34 journal articles for your research on the topic 'Décision opérationnelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Millet, Jean-Michel. "Les méthodes de prise de décision opérationnelle nous rendent-elles trop prévisibles ?" Stratégique N° 112, no. 2 (2016): 35. http://dx.doi.org/10.3917/strat.112.0035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Belin, Pascal, Ghislaine Verrhiest-Leblanc, and Pierre-Yves Valantin. "Exploitation des outils d'anticipation des phénomènes pour l'aide à la décision." La Houille Blanche, no. 3-4 (October 2019): 31–38. http://dx.doi.org/10.1051/lhb/2019044.

Full text
Abstract:
Le panel des informations d'anticipation des phénomènes mis à disposition des autorités de police (maires, préfets), responsable de gestion de la crise s'est considérablement enrichi ces dernières années. Ces informations sont délivrées par divers dispositifs. À différentes occasions, nous avons constaté les difficultés d'appropriation et d'exploitation de ces outils pour la gestion des inondations à cinétiques rapides par un nombre important de gestionnaires de crise. Le besoin d'accompagnement de ces acteurs pour intégrer ces outils dans le processus organisationnel et décisionnel est fort. Cette ambition constitue un enjeu stratégique sur l'arc méditerranéen où les territoires sont exposés à des phénomènes dont la cinétique est souvent très rapide. Pour répondre à cet objectif, des supports pédagogiques ont été développés afin de permettre aux utilisateurs de mieux s'approprier le fonctionnement de ces dispositifs, de montrer leur complémentarité et d'optimiser l'exploitation des informations délivrées en situation opérationnelle.
APA, Harvard, Vancouver, ISO, and other styles
3

Roy, Bernard. "Regard historique sur la place de la recherche opérationnelle et de l’aide à la décision en France." Mathématiques et sciences humaines, no. 175 (December 1, 2006): 25–40. http://dx.doi.org/10.4000/msh.3570.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Zeitoun, Helen. "Les nouveaux enjeux de la recherche marketing dans l'univers des services : Pour une aide à la décision plus opérationnelle." Décisions Marketing 25 (January 1, 2002): 61–69. http://dx.doi.org/10.7193/dm.025.61.69.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Guéranger, David, and François-Mathieu Poupeau. "Un outil qui résiste à sa réforme. Le COS et sa « carrière » dans le Plan local d’urbanisme de Paris." Environnement Urbain 3 (July 6, 2009): 1–9. http://dx.doi.org/10.7202/037597ar.

Full text
Abstract:
Résumé À Paris, la question de la densité et de l’un de ses principaux outils, le Coefficient d’occupation des sols (COS), a fait l’objet de nombreux débats à l’occasion de l’élaboration du Plan local d’urbanisme (2001-2006). C’est sur ces débats que nous nous penchons dans cet article : quels ont été les acteurs en présence, les doctrines et les lieux de délibération et de décision ? En nous efforçant ainsi de retracer la « carrière » du COS, outil très critiqué à cause de son obsolescence et de son manque d’efficacité, nous montrons que celui-ci fait montre d’une étonnante capacité à résister au changement et à s’imposer comme un outil incontournable dans le débat public sur la densité et sa gestion opérationnelle. Cette pérennité tient en large part à la charge symbolique et politique dont il est investi : outil élaboré à la fin des années 1960, le COS véhicule toute une histoire de l’urbanisme à Paris, un certain rapport à la puissance publique et à la réglementation, rendant très difficile sa réforme, pourtant souhaitée par certains spécialistes et élus locaux.
APA, Harvard, Vancouver, ISO, and other styles
6

Richer, Cyprien, and Patrick Palmier. "Mesurer l’accessibilité territoriale par les transports collectifs." Cahiers de géographie du Québec 56, no. 158 (2013): 427–61. http://dx.doi.org/10.7202/1014554ar.

Full text
Abstract:
Résumé L’accessibilité n’est pas un concept univoque. Si toutes les approches insistent sur l’enjeu du « potentiel de mobilité » pour l’espace et les sociétés, il convient de distinguer les multiples dimensions du système d’accessibilité territoriale (approche théorique). Cet article porte sur une de ses facettes, celle de l’accessibilité structurelle du territoire en transport collectif à travers la construction d’un indicateur multicritère (croisement de critères de temps, d’intensité des relations et de pénibilité des déplacements). L’enjeu est d’estimer plus finement des potentiels d’accessibilité en transport collectif (approche méthodologique) et d’interpréter (approche opérationnelle) les (dés)équilibres d’accès aux pôles d’excellence dans le territoire métropolitain lillois. Les résultats fournis par l’outil de calcul de l’accessibilité multimodale MUSLIW, développé au CETE Nord-Picardie, permettent de mettre en débat les politiques stratégiques de la Communauté urbaine de Lille Métropole (LMCU) dans une optique d’aide à la décision. La démarche élaborée dans cet article est mise en perspective avec la méthode anglo-saxonne Public Transport Accessibility Level (PTAL) utilisée dans la planification stratégique au Royaume-Uni. Ce croisement des regards donne la mesure de l’enjeu d’une meilleure estimation de la performance territoriale des réseaux de transport collectif pour assister les autorités responsables de l’aménagement, par exemple, dans leur choix d’urbanisation et de normes de stationnement.
APA, Harvard, Vancouver, ISO, and other styles
7

Allain, Sophie. "Approche cognitive de la gestion stratégique dans une entreprise monodécideur : le cas de l'entrepreneur agricole." Revue internationale P.M.E. 12, no. 1-2 (2012): 31–60. http://dx.doi.org/10.7202/1008649ar.

Full text
Abstract:
Dans le domaine de la gestion stratégique des PME, une des questions clés est de savoir comment s’établit le lien entre les idées contenues dans la vision stratégique du dirigeant et les décisions réelles qui sont prises. On aborde ici cette question par une approche cognitive ; il s'agit de comprendre pourquoi et comment un individu prend ses décisions. Et on considère que ce n’est qu’en revenant à la manière même dont celui-ci interprète sa situation qu’on peut y parvenir. On choisit le cas de l’entreprise agricole pour prospecter cette voie, car il s’agit d’une très petite entreprise, généralement pilotée par un seul décideur; vision stratégique et décisions concrètes relèvent donc de la même personne. On propose tout d’abord le schéma suivant des décisions : l’agriculteur a des représentations stables, qui sont, d’une part, une vision stratégique de son entreprise lui fournissant les éléments de sa politique générale et, d’autre part, des programmes d’action lui permettant de prendre des décisions opérationnelles à caractère répétitif, donc, d’assurer le fonctionnement courant de son entreprise; le couplage entre ces deux plans est assuré par les décisions de gestion stratégique qui sont, pour nous, les décisions qui gèrent le changement dans l'entreprise. On construit alors une grille d'analyse de ces décisions. Celles-ci sont vues comme suivant à la fois une logique de résolution de problème et une logique d'adéquation, l’individu recherchant une solution satisfaisante, non connue a priori, en s'appuyant sur les représentations qui guident son action ; ces deux logiques obéissent à des principes de simplification, de continuité et de connexion étroite aux actions à mener au même moment. On applique cette grille au cas d'un agriculteur d’une région de grande culture française et on envisage pour finir quelques perspectives en matière d’aide à la décision et de recherche.
APA, Harvard, Vancouver, ISO, and other styles
8

Fosse-Gomez, Marie-Hélène. "L'adolescent dans la prise de décisions économiques de la famille." Recherche et Applications en Marketing (French Edition) 6, no. 4 (1991): 100–118. http://dx.doi.org/10.1177/076737019100600405.

Full text
Abstract:
L'objet du présent article est d'attirer l'attention sur un grand oublié de la littérature en achat familial: l'adolescent. Plus précisément, il s'agit de: — proposer une définition opérationnelle de l'adolescent, qui tienne néanmoins compte des apports de diverses disciplines (psychologie, sociologie, histoire…); — relever dans la littérature marketing les spécificités de l'adolescent par rapport à l'enfant; — proposer, sur base des travaux déjà effectués, des orientations pour les recherches futures.
APA, Harvard, Vancouver, ISO, and other styles
9

Belzile, Bertrand. "Objectif privilégié de l’entreprise." Relations industrielles 22, no. 4 (2005): 467–79. http://dx.doi.org/10.7202/027833ar.

Full text
Abstract:
Dans cet article, l’auteur explique comment la maximisation du profit représente pour les entreprises économiques le critère de décision le plus opérationnel, tout en reconnaissant l'existence de multiples sous-objectifs ou contraintes. Cet objectif privilégié constitue le meilleur dénominateur commun pour tous les agents économiques de l’entreprise, à la condition, bien entendu, de se situer à un niveau moyen d'abstraction.
APA, Harvard, Vancouver, ISO, and other styles
10

Ladwein, Richard. "Catégories cognitives et jugement de typicalité en comportement du consommateur." Recherche et Applications en Marketing (French Edition) 10, no. 2 (1995): 89–100. http://dx.doi.org/10.1177/076737019501000205.

Full text
Abstract:
Cet article présente les notions de catégories cognitives et de jugement de typicalité. Le jugement de typicalité est lié à l'organisation catégorielle des connaisances. En tant que processus d'évaluation, il permet au consommateur de prendre des décisions, mais aussi de produire des connaissances nouvelles. Après une présentation des principales caractéristiques fonctionnelles du jugement de typicalité, les implications opérationnelles sont proposées.
APA, Harvard, Vancouver, ISO, and other styles
11

Gariel, Jean-Christophe, and Sophia Majnoni d’Intignano. "Le risque d’accident nucléaire : prévention et gestion." Reflets de la physique, no. 60 (December 2018): 22–23. http://dx.doi.org/10.1051/refdp/201860022.

Full text
Abstract:
Estimer le risque d’un accident nucléaire, et s’y préparer, comporte de grandes difficultés et des hypothèses qui font rarement consensus. Quant à la gestion d’un éventuel accident, l’Histoire a montré que les décisions et choix opérationnels dépendent de la structure politique et sociale des territoires concernés. Regards croisés de deux experts du domaine.
APA, Harvard, Vancouver, ISO, and other styles
12

Maurel, Dominique, and Pierrette Bergeron. "Vers une meilleure compréhension des besoins informationnels des cadres intermédiaires municipaux. Premières pistes de réflexion." Documentation et bibliothèques 52, no. 1 (2015): 5–16. http://dx.doi.org/10.7202/1030023ar.

Full text
Abstract:
La capacité des organisations à créer et à exploiter l’information et les connaissances est déterminée entre autres par les comportements informationnels des acteurs organisationnels. Chargés de décisions stratégiques, tactiques et opérationnelles, les cadres intermédiaires sont au coeur du processus de création des connaissances, et leurs comportements informationnels doivent être soutenus par des sources et des systèmes d’information. Cet article examine la manière dont des cadres intermédiaires municipaux répondent à leurs besoins informationnels dans le contexte de leurs activités de gestion. Nous souhaitons notamment contribuer à fournir des pistes de réflexion pour l’élaboration de stratégies de gestion de l’information organisationnelle.
APA, Harvard, Vancouver, ISO, and other styles
13

Derouet, Jean-Louis. "Entre la récupération des savoirs critiques et la construction des standards du management libéral." Dossier thématique 32, no. 1 (2006): 7–30. http://dx.doi.org/10.7202/013474ar.

Full text
Abstract:
Résumé Cet article montre que l’étude des rapports entre science et politique, dans le domaine de l’éducation, rencontre des débats importants, notamment en ce qui concerne le statut de la pédagogie, le lien entre théories et pratiques, la capacité du système à répondre de manière opérationnelle aux questions des enseignants et des acteurs politiques, le compromis réalisé à chaque niveau en matière d’égalité des chances, etc. L’article mentionne également que la régulation de chaque système éducatif local repose sur des objectifs mesurables et des comparaisons internationales en vue de définir les niveaux de performance. Il questionne la place des programmes centrés sur les compétences. Il souligne enfin le rôle des décisions politiques dans l’inégalité de trajectoires entre la formation des élites et celle de la masse.
APA, Harvard, Vancouver, ISO, and other styles
14

Gouin, Marie-Michelle, and Manon Truchon. "Concertation ou négociation? Distinguer les deux afin de faciliter les prises de décisions en contexte de réadaptation au travail." Articles 73, no. 3 (2018): 566–90. http://dx.doi.org/10.7202/1053841ar.

Full text
Abstract:
RésuméEn contexte de réadaptation au travail, l’action concertée (concertation) serait déterminante pour le succès du retour au travail. Or, un débat théorique entoure toujours le concept de « concertation », qui peut être rapproché (ou non) de la « négociation ». De plus, aucune étude n’a encore exploré les processus de prises de décisions collectives à partir d’échanges entre les multiples parties prenantes à un programme de réadaptation au travail. Cet article vise à proposer des définitions opérationnelles distinguant la concertation de la négociation, puis à les tester en contexte de réadaptation au travail.D’abord, des définitions de « l’action concertée », de la « concertation » et de la « négociation » sont comparées, afin d’en venir à distinguer ces deux derniers concepts, notamment par la présence de conflit(s) et des relations (de coopération/collaboration) entre les parties. Les définitions proposées sont, ensuite, testées empiriquement à partir de données issues d’une étude de cas multiples (N=6) qui explore les processus de prises de décisions entre les parties prenantes à un programme de réadaptation au travail.Les données de l’étude montrent l’importance de comprendre la concertation et la négociation comme des types de processus de prises de décisions complexes et dynamiques. L’étude permet aussi de distinguer la concertation et la négociation à l’aide des définitions proposées en contexte de réadaptation au travail. Le recours à ces définitions pourrait engendrer d’importantes retombées, notamment sur le plan des pratiques en réadaptation au travail.Ces définitions pourraient, en effet, permettre de mieux cibler des stratégies à privilégier pour atteindre des décisions favorables au retour durable et en bonne santé des travailleurs en incapacité, selon le type de prise de décisions anticipé. Ceci dit, d’autres études devront venir approfondir la connaissance des processus de prises de décisions collectives (incluant la concertation et la négociation) en contexte de réadaptation au travail, ainsi que leurs liens possibles avec le succès ou l’échec du retour au travail.
APA, Harvard, Vancouver, ISO, and other styles
15

Tran, Annelise, and François Roger. "Renforcer les décisions en santé sur un territoire : l'appui opérationnel de l'évaluation multicritère spatialisée." Perspective, no. 46 (2018): 1–4. http://dx.doi.org/10.19182/agritrop/00021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Jacopin, Bertrand, Emilie Andries, Yohann Beureno, Fabienne Mercier, Pierre-Yves Valantin, and Yann Laborda. "Atlas dynamique des zones inondables : outil operationnel d'aide à la décision." La Houille Blanche, no. 1 (February 2019): 13–18. http://dx.doi.org/10.1051/lhb/2019002.

Full text
Abstract:
Le Syndicat Mixte d'Aménagement de la Vallée de la Durance (SMAVD) s'attache depuis de nombreuses années à compléter les portés à connaissances règlementaires par des études hydrauliques spécifiques. Pour cela, le SMAVD construit et exploite des modèles numériques Telemac 2D, qui, fréquemment mis à jour, reflètent fidèlement les mécaniques complexes d'inondation du secteur. Pour répondre aux besoins de ses communes membres et après un audit des acteurs de la prévention des risques, il est apparu prioritaire au SMAVD de développer un outil permettant de se préparer aux inondations, de transformer les prévisions de débits en prévision de zones inondables potentielles (ZIP). Sur un premier tronçon de rivière équipé de très nombreux ouvrages anciens peu fiables, les hydrauliciens du SMAVD ont élaboré une méthodologie de modélisation du cours d'eau permettant de représenter les conséquences aléatoires liées à la tenue ou à la rupture des ouvrages. Une gamme étendue de débits de débits de crue a été modélisée. La représentation graphique des résultats a été mise au point dans le cadre d'une large concertation : en étroite collaboration avec les représentants de la commune pilote de Villelaure (84) puis avec l'ensemble des utilisateurs identifiés. L'Atlas Dynamique des Zones Inondables (AZI) de la Durance constitue le document pivot des plans communaux de sauvegarde, un outil de mesure des conséquences des potentielles ruptures d'ouvrages, le chainon manquant entre prévision de débit et prévision d'inondation mais également une aide précieuse lors des projections opérationnelles des services de secours. Première action mise en œuvre dans la Stratégie Locale de Gestion du Risque Inondation (SLGRI) de la Durance, le projet AZI se déploie en régie interne au sein du SMAVD. Il couvre plus de 100 km de rivière. Il contribue au projet national Viginonde en mettant à disposition du Service de Prévision des Crues les différentes couches SIG des Zones Inondables Potentielles. L'outil sera par ailleurs largement partagé, avec entre autres les gestionnaires routiers, les communes et EPCI, les SDIS...
APA, Harvard, Vancouver, ISO, and other styles
17

Naudet, Grégoire, Gilles Pierrefeu, Thomas Berthet, Thomas Triol, Karine Delamarre, and Bertrand Blanquart. "OURSIN : OUtil de Répartition deS INcertitudes de mesure de débit par aDcp mobile." La Houille Blanche, no. 3-4 (October 2019): 93–101. http://dx.doi.org/10.1051/lhb/2019056.

Full text
Abstract:
Évaluer la contribution des différentes sources d'erreur d'un jaugeage aDcp permet de connaître l'incertitude de cette mesure. En s'inspirant des travaux de recherche déjà réalisés sur ce sujet, CNR a développé une application baptisée OURSIN qui se veut un outil opérationnel d'aide à la décision ayant pour vocation d'être diffusé librement à tous les producteurs de mesure aDcp. Le principe d'OURSIN consiste à appliquer le GUM en décomposant le débit en plusieurs termes, puis réaliser l'évaluation de l'incertitude-type de certaines composantes à partir de calculs de sensibilité. Au final, OURSIN fournit le budget des incertitudes des différentes composantes. Ainsi, l'hydromètre disposera d'une valeur d'incertitude plus pertinente qu'un simple commentaire ≪ à dire d'expert ». Cela devrait lui permettre d'améliorer sa façon de faire pour, in fine, réduire l'incertitude associée à ses jaugeages. CNR souhaite poursuivre cette démarche d'incertitude aDcp avec l'ensemble des organismes nationaux et internationaux pour aboutir si cela était possible à une méthodologie commune d'estimation d'incertitude.
APA, Harvard, Vancouver, ISO, and other styles
18

Abergel, Violette, Renato Saleri, and Hervé Lequay. "Vecteurs aériens téléopérés pour l'acquisition de données spatiales d'objets patrimoniaux, Retour d'expérience." Revue Française de Photogrammétrie et de Télédétection, no. 213 (April 27, 2017): 73–79. http://dx.doi.org/10.52638/rfpt.2017.363.

Full text
Abstract:
Le relevé aérien constitue, dans le domaine de l'archéologie et de l'architecture, un vaste champ d'applications et d'intérêt. Au-delà des capacités croissantes des drones existants, le potentiel opérationnel de tels outils dépasse aujourd'hui l'imagination de leur propres créateurs : initialement conçus dans le secteur de la robotique civile et militaire, de récentes expérimentations ont pu tester le vol autonome, la prise de décision automatique, ainsi que l'intelligence distribuée.Avec près de dix ans d'expérience dans le domaine du relevé aérien, le laboratoire MAP a expérimenté un large panel de vecteurs aériens, pilotés ou semi-autonomes, équipés de capteurs de différentes natures, à des fns de télédétection et d'acquisition de données spatiales, ce travail étant principalement dévolu à la modélisation et à la simulation d'environnements 3D à haute valeur patrimoniale. Les compétences du MAP concernent donc la mobilisation de vecteurs aériens sans équipage, mais aussi le développement d'outils experts pour la modélisation et représentation 3D ou encore les protocoles d'analyse d'image dans le domaine de l'architecture, de l'urbanisme et du paysage.
APA, Harvard, Vancouver, ISO, and other styles
19

Binet, Laurence. "Médecins Sans Frontières en Tchétchénie de 1994 à 2004." Connexe : les espaces postcommunistes en question(s) 1 (July 12, 2015): 119–37. http://dx.doi.org/10.5077/journals/connexe.2015.e36.

Full text
Abstract:
Cet article a été rédigé à partir de l’étude Crimes de guerre et politiques de terreur en Tchétchénie 1994-2004, réalisée par Laurence Binet et publiée dans la collection « Prises de parole publiques de Médecins Sans Frontières ». Cette collection de MSF, à destination interne, est progressivement rendue publique sur le site http://www.speakingout.msf.org. Elle s’efforce de décrire les processus de prise de décision qui ont mené aux positionnements publics de MSF lors de grandes crises humanitaires, ainsi que les dilemmes et controverses qui les ont accompagnés. Les études y prennent la forme d’un récit chronologique composé d’extraits de documents propres à l’organisation (rapports de situation, de mission, échanges de courriels, comptes rendus de réunions, communiqués de presse, rapports de témoignages) et d’articles de presse. S’y ajoutent des extraits d’entretiens menés avec les protagonistes de MSF, acteurs des processus. À partir de ces sources, l’article proposé ici décrit les positionnements publics de Médecins Sans Frontières, lors de la première (1994-1996) puis de la seconde guerre de Tchétchénie (après 1999) et rappelle le contexte opérationnel dans lequel ils s’inscrivaient. L’article se propose ensuite d’examiner les principaux questionnements et dilemmes que ces prises de paroles publiques ont posés à l’organisation aussi bien au moment où il fallait décider d’un positionnement public qu’a posteriori.
APA, Harvard, Vancouver, ISO, and other styles
20

Matos, Jean. "L’intérêt supérieur de l’enfant?: un critère opérationnel pour la décision en néonatologie?? Éléments d’éclairage à partir de la notion de qualité de vie." Revue française d'éthique appliquée N° 4, no. 2 (2017): 104. http://dx.doi.org/10.3917/rfeap.004.0104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Kibi, N., J. L. Sasseville, J. M. Martel, and J. F. Blais. "Choix multicritère de procédés d'épuration des eaux usées municipales." Revue des sciences de l'eau 13, no. 1 (2005): 21–38. http://dx.doi.org/10.7202/705378ar.

Full text
Abstract:
Les stations d'épuration des eaux usées municipales du Québec, comme ailleurs au Canada et aux États Unis, sont en général peu efficaces sur le plan énergétique. Il est donc possible de concevoir des hypothèses de chaînes épuratoires améliorées au plan de leur efficacité énergétique et de leur performance globale en y introduisant, d'une part, diverses MEEE et, d'autre part, certains procédés unitaires améliorant l'épuration. Cependant, le problème de choisir, parmi ces hypothèses de chaînes d'épuration, celle correspondant au procédé le plus adéquat pour prendre en charge une situation donnée, demeure entier. Cet article analyse ce problème de choix pour les stations d'épuration de capacité comprise entre 5,000 m3/d (≈ 5000 personnes) et 100,000 m3/d (≈ 100,000 personnes). En faisant l'hypothèse, d'un côté, que l'ajout des mesures d'efficacité énergétique peut améliorer la consommation énergétique d'une chaîne d'épuration, et d'un autre côté, que l'insertion de segments de procédés peut contribuer à améliorer leur performance globale, nous avons élaboré, à partir des stations d'épuration de types Biofiltration, Physico-chimique, Réacteurs Biologiques séquentiels (deux variantes), Boues activées et Étangs aérés, six (6) hypothèses de chaînes épuratoires (chaînes 1 à 6) respectant les exigences opérationnelles et épuratoires et nous les avons comparées entre elles, sur la base d'une analyse multicritère d'aide à la décision, en vue d'en déterminer les plus performantes. Cette analyse multicritère intègre les aspects techniques, énergétiques, économiques, etc. et prend en compte les préférences du(des) décideur(s) dans le processus de choix. Les résultats obtenus montrent que, parmi les six hypothèses de chaînes étudiées, les trois premières positions sont occupées par les chaînes 3, 1 et 4 respectivement. Ce type d'analyse pourrait jouer un rôle complémentaire à une étude technico-économique visant le choix de technologies d'épuration.
APA, Harvard, Vancouver, ISO, and other styles
22

Pailleux, Jean, Jean Coiffier, Philippe Courtier, and Emmanuel Legrand. "La naissance du projet Arpège-IFS à Météo-France et au CEPMMT." La Météorologie, no. 112 (2021): 035. http://dx.doi.org/10.37053/lameteorologie-2021-0017.

Full text
Abstract:
À Météo-France, la décennie 1985-1995 a vu une profonde transformation de la prévision numérique du temps (PNT) qui a d'abord conduit au remplacement des modèles de prévision opérationnels Émeraude et Péridot par Arpège et Aladin. Dans la même période, un vaste programme de recherche et de développement a été lancé conjointement avec le CEPMMT concernant l'initialisation des modèles par des techniques d'assimilation de données dites « variationnelles ». Cette période a été aussi marquée par un virage vers beaucoup plus de coopération entre institutions travaillant sur la PNT dans les différents pays européens. Jean-François Geleyn s'est trouvé en première ligne de cette profonde transformation, toujours impliqué dans les décisions stratégiques, mais aussi souvent impliqué comme expert dans les études et développements touchant plusieurs aspects scientifiques. At Météo-France, the 1985-1995 decade was marked by a complete transformation of Numerical Weather Prediction (NWP) which led first to the replacement of the operational models Émeraude and Péridot by Arpège and Aladin. In the same period, a large research and development programme was initiated jointly with ECMWF on model initialisation through so-called 'variational' assimilation techniques. This period was also marked by an important change towards closer cooperation between the different institutions working on NWP in European countries. Jean-François Geleyn was instrumental in this complete transformation of NWP. He was always involved in the strategic decisions, but also as an expert in the studies and developments on several scientific aspects.
APA, Harvard, Vancouver, ISO, and other styles
23

Verrhiest-Leblanc, Ghislaine, Pascal Belin, Jean Pansu, and Patrick Noterman. "De l'intérêt des exercices de crise inondation – vers des recommandations issues du retour d'expérience." La Houille Blanche, no. 2 (April 2019): 81–88. http://dx.doi.org/10.1051/lhb/2019018.

Full text
Abstract:
Les exercices de crise permettent de garantir et de maintenir le caractère opérationnel et efficace des organisations et des planifications. En matière de prévention des risques d'inondation, ils sont fondamentaux pour développer les capacités d'anticipation, d'adaptation et de prise de décision des différents acteurs impliqués. En partenariat avec les préfectures de département concernées, les collectivités des bassins versants considérés et des acteurs de la prévention en présence, un groupe d'experts a conçu et élaboré divers exercices de crise inondation à cinétique rapide depuis 2015 en région Provence Alpes Côte d'Azur. Au-delà des objectifs courants des exercices visant à tester les organisations et les planifications en place, l'ambition pédagogique de montée en compétences des acteurs prédominait. Il s'agissait de travailler à l'anticipation d'une crise d'inondation et à la mise en situation d'acteurs dans des configurations diverses (surveillance ou pas par le réseau Vigicrues, présence ou non d'agglomérations et d'intercommunalités actives dans la gestion de crise…) et des niveaux de complexité variés (synergies de divers phénomènes d'inondation, interaction entre risques d'inondation et technologiques…). Les joueurs étaient plongés dans un contexte proche de la réalité en matière de prévision grâce à l'utilisation d'un site exercice école spécifiquement développé par Météo-France et le SPC Méditerranée-Est. Ce site fournissait l'ensemble des données de prévision disponibles. Les acteurs pouvaient ainsi travailler sur l'interprétation des données. Au-delà d'un jeu basé sur la gestion en temps réel d'une situation qui se dégrade, la phase de gestion post-évènement en vue d'un retour à la normale a également été testée. Ces exercices ont été aussi l'occasion en amont de la phase de jeu de développer des outils utiles (exemple : cartographies et outils de la mission ≪ Référent départemental inondation [RDI] ») ou de réfléchir aux organisations (exemple : rôle et responsabilités d'un syndicat dans la phase de gestion de crise). Outre la vulgarisation des nouveaux outils mis à disposition par l'État et l'aide à la connaissance des risques par les collectivités, ces exercices participent de façon importante à un meilleur partenariat des acteurs de la sécurité civile, à une meilleure connaissance des limites et des possibilités de chacun, si importante en gestion de crise. Le retour d'expérience de ces exercices permet aujourd'hui de mettre à disposition des territoires un cahier technique de recommandations et des outils type pour la préparation et l'animation de tels exercices. Il permet également de disposer d'un regard critique utile pour l'amélioration continue des pratiques, des organisations, des planifications et de certains outils.
APA, Harvard, Vancouver, ISO, and other styles
24

AGABRIEL, J. "Avant-propos." INRAE Productions Animales 20, no. 2 (2007): 107–8. http://dx.doi.org/10.20870/productions-animales.2007.20.2.3442.

Full text
Abstract:
L’alimentation des ruminants : un problème d’actualitéDans la conduite et la réussite d’un système de production de Ruminants, l’alimentation du troupeau reste un domaine très important qui continue de poser de nombreuses questions à la fois pratiques et théoriques.
 Pour l’éleveur, les postes récolte des fourrages et des céréales, achats d’aliments et entretien des surfaces fourragères représentent plus de 50 % des charges opérationnelles de son exploitation. Nourrir quotidiennement son troupeau lui impose de faire des choix de types de rations et en amont des choix stratégiques de long terme, sur la conduite de son système fourrager en considérant ses contraintes de milieu naturel, de bâtiments ou de stockage. La gestion de l’alimentation est directement liée à tous les autres choix stratégiques de l’activité d’élevage, le niveau de croissance des jeunes animaux, la reproduction, l’allotement la quantité et la qualité de la production. Pour le chercheur en nutrition animale, les enjeux sont devenus multiples et son positionnement a évolué : la recherche de la production maximale soutenue par l’alimentation a fait place à la volonté d’atteindre un optimum à la fois biologique, technique et économique selon les milieux dans lequel l’élevage est conduit. Il doit faire en sorte que la ration calculée par ses modèles satisfasse les besoins de l’animal selon les objectifs de production de l’éleveur, mais qu’elle participe également au bon état sanitaire et de bien-être du troupeau, qu’elle garantisse la qualité des produits et minimise l’impact défavorable des rejets sur l’environnement.
 La recherche en nutrition et alimentation des ruminants porte à la fois sur les fourrages, la physiologie digestive et métabolique de l’animal et son comportement alimentaire. En tenant compte de la complexité des mécanismes biologiques, les modèles nutritionnels doivent pouvoir simuler avec le maximum de précisions les flux de matières à travers le tube digestif et les organes sur des pas de temps variables, à la fois de court et de long terme. Cela reste un sujet perpétuellement en évolution qui exige aussi de synthétiser les connaissances sous forme d’outils d’aide à la décision et qui soit capable de présenter la qualité de ces outils et leurs limites d’usage.
 Une recherche qui se développe avec l’INRALes recherches pour aider à déterminer les choix d’alimentation des animaux en condition de production se sont concrétisées au cours du 20ème siècle. Les systèmes d’alimentation en énergie, azote et minéraux ont été développés en France après 1945. A l’INRA, le département Elevage des Ruminants sous l’impulsion de R. Jarrige avait initié une révision majeure des principes et des unités pratiques de terrain en 1978 en proposant un système énergétique construit sur la base de deux unités fourragères, lait et viande (UFL, UFV), un système des Protéines Digestibles dans l’Intestin (PDI) et des Tables complètes à la fois des besoins des animaux et de la valeur alimentaire des aliments. C’est notamment dans le domaine de la valeur nutritionnelle des fourrages que ces travaux étaient particulièrement riches. Ces «systèmes INRA» avaient alors été complétés par la première ébauche d’un modèle complètement nouveau de prévision de l’ingestion (système des Unités d’Encombrements UE) qui sera fortement remanié et amélioré dix ans plus tard lors de la révision de 1988. Ce nouvel ensemble, prévision de l’ingestion, estimation des besoins nutritionnels, a également permis d’accroître l’offre d’outils pratiques de terrain. En complèment des Tables imprimées, un outil informatique d’accompagnement et de rationnement «INRAtion» a été proposé dès 1992. Celui-ci s’est ensuite enrichi de l’outil de calcul de la prévision de la valeur des aliments «Prevalim;» et tous deux sont devenus des réceptacles appliqués des nouveautés scientifiques concernant les systèmes INRA.
 Mais, près de vingt ans après le dernier «Livre Rouge de l’Alimentation des bovins, ovins et caprins», une mise à niveau des ouvrages écrits s’imposait également et il est apparu nécessaire de proposer une actualisation des connaissances des principes du rationnement des ruminants. Les travaux des équipes de recherches ont permis de progresser aussi bien sur la caractérisation de la valeur des fourrages et des matières premières, que sur l’estimation des besoins des animaux et des apports nutritionnels recommandés dans des situations très diverses. Au delà des recommandations statiques, focalisées sur l’objectif de satisfaire les besoins, les lois de réponses dynamiques des pratiques alimentaires sont mieux connues et quantifiées. Elles permettent de mieux simuler les conséquences de la diversité des situations.
 L’objectif de l’ouvrage «Alimentation des bovins, ovins et caprins - Tables INRA 2007», sorti en février aux éditions Quæ, est ainsi de remettre sous la forme connue et largement adoptée par tous les acteurs des filières de l’élevage ruminant ces nouveaux résultats.
 Des documents complémentairesCependant le niveau scientifique choisi de l’ouvrage récemment paru et sa taille volontairement réduite pour en faire un ouvrage facilement accessible ont contraint les auteurs à aller à l’essentiel, les frustrant sans aucun doute d’une description et d’une discussion de fond de leurs résultats.En reprenant l’exemple de 1987 où le «livre rouge» publié par INRA Editions était complété par un numéro détaillé du Bulletin CRZVde Theix, nous avons donc décidé de publier un dossier dans la Revue INRA Productions Animales qui complète l’ouvrage de février. Ce dossier regroupe majoritairement des présentations et les explications des choix qui ont prévalu au développement des nouveaux modèles sous-tendus dans les recommandations. Il comporte 5 articles qui éclairent des points clés des innovations introduites en 2007, et qui correspondent soit à des nouveaux modèles mécanistes des fonctions de l’animal, soit à des méthodes de prévision de la valeur des fourrages, soit à des remises en cause plus profondes de l’ensemble apports, besoins comme c’est le cas pour la nutrition minérale.Toutefois, ce dossier n’est pas exhaustif des «nouveautés» du livre 2007. Certaines avaient été déjà publiées, soit dans des revues scientifiques, soit dans des sessions des «Rencontres Recherches Ruminants». Sans aucun doute d’autres viendront encore les compléter par la suite.Ainsi sont étudiés successivement des apports scientifiques sur la valeur des aliments et sur les besoins des animaux :1 - La dégradabilité des protéines dans le rumen (DT) et la digestibilité réelle des protéines alimentaires dans l’intestin grêle (dr). La valeur azotée des fourrages repose sur la bonne estimation de ces deux paramètres, qui sont la clé du calcul du système des protéines digestibles dans l’intestin PDI (article de M.-O. Nozières et al).2 - Les nouvelles valeurs minérales et vitaminiques des aliments. La possibilité de raisonner en éléments phosphore et calcium absorbables apporte de nouvelles précisions et modifie considérablement les quantités recommandées. L’article précise et actualise les Apports Journaliers Recommandés (AJR) d’éléments minéraux majeurs. Les autres minéraux, oligo-éléments et vitamines sont également revus de façon systématique et approfondie (article de F. Meschy et al).3 - De nouvelles équations statistiques de prévision de la digestibilité de la Matière Organique (dMO) des fourrages par la méthode pepsine-cellulase établies sur une banque de données couvrant une gamme plus importante de fourrages et de modes de conservation. La valeur énergétique des fourrages dépend en effet étroitement de la digestibilité de leur matière organique. Son estimation sur le terrain peut se faire à partir de méthodes de laboratoire comme la digestibilité pepsine-cellulase, utilisée en France depuis plus de vingt ans. Cette méthode est proposée pour sa bonne précision (article de J. Aufrère et al).4 - La composition du gain de poids chez des femelles adultes en période de finition qui permet de calculer ensuite directement le besoin en énergie et en protéines de l’animal. Ce modèle est suffisamment souple pour proposer un besoin face à un objectif de croissance donné, mais il propose aussi un niveau de croissance pour une ration d’un niveau énergétique donné. Ce nouveau modèle a été spécifiquement développé pour tenir compte de la très grande variabilité des situations pratiques rencontrées : la race, l’âge, le format, l’état d’engraissement initial et la vitesse du gain attendu (article de F. Garcia et J. Agabriel).5 - La capacité d’ingestion d’aliments par les vaches laitières au cours de leur lactation complète. Ce tout nouveau modèle s’adapte à tous types de vaches primipares, multipares et propose le nouveau concept de «lait potentiel» pour mieux décrire cette capacité d’ingestion. Ce concept est nécessaire pour répondre aux diverses stratégies des éleveurs dans la conduite de leurs animaux et qui ne souhaitent pas nécessairement les mener à leur maximum de production. Le modèle tient en effet compte de l’état initial de la vache au vêlage et des modifications d’état corporel qui accompagnent obligatoirement la conduite de la lactation (article de P. Faverdin et al).La Rédaction de la Revue a estimé judicieux de publier dans ce même numéro d’INRA Productions Animales, un travail très récent sur la teneur en matière grasse du lait de vache et sa prévision, qui pourra dans les années à venir se traduire concrètement dans les outils d’accompagnement de nos recommandations (article de Rulquin et al).A l’occasion de la publication de ce dossier, nous voulons plus particulièrement remercier tous les participants des Unités et Installations Expérimentales de l’INRA sans qui ces résultats ne seraient pas, ainsi que tout le personnel des Unités de Recherches qui ont participé dans les laboratoires ou derrière leurs écrans : l’Unité de Recherches sur les Herbivores (URH) de Clermont-Ferrand-Theix, l’Unité Mixte de Recherches sur la Production Laitière (UMR PL) de Rennes, l’Unité Mixte de Recherches Physiologie et Nutrition Animale (UMR PNA) de Paris, l’Unité Mixte de Recherches sur les Ruminants en Région Chaude (UMR ERRC) de Montpellier.
APA, Harvard, Vancouver, ISO, and other styles
25

"Étude du feedback des équipes sur les capacités de leadership et de prise de décision." Management & Data Science, February 2020. http://dx.doi.org/10.36863/mds.a.11096.

Full text
Abstract:
Beaucoup aspirent à devenir de grands leaders, mais il est nécessaire de rappeler que le leadership ne remplace pas l’excellence opérationnelle au quotidien. En effet, les équipes ont d’abord besoin de meilleurs décideurs, et ensuite de meilleurs leaders.
APA, Harvard, Vancouver, ISO, and other styles
26

Charon, Irène, and Olivier Hudry. "Avant propos du n° spécial sur "La recherche opérationnelle et aide à la décision"." Mathématiques et sciences humaines, no. 161 (March 1, 2003). http://dx.doi.org/10.4000/msh.2958.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Pereira, Ruth. "Educação em serviço para o professor: dimensões de sua estrutura operacional." Revista Brasileira de Estudos Pedagógicos 75, no. 179-80-81 (2019). http://dx.doi.org/10.24109/2176-6681.rbep.75i179-80-81.1148.

Full text
Abstract:
O planejamento da educação em serviço para o professor deve levar em conta quatro dimensões de sua estrutura operacional: o nível decisório, o seu processo, os fatores facilitadores da participação do pessoal envolvido e as suas modalidades, sendo que o sucesso da capacitação docente depende da interação dessas quatro dimensões. O nível decisório refere-se à autoridade para dar origem, equipar e fazer funcionar uma unidade ou centro de aperfeiçoamento de professores. O processo de educação em serviço abrange o conteúdo dos programas de aperfeiçoamento, os procedimentos adotados e a avaliação da eficiência e da eficacia das atividades programadas. Os fatores facilitadores dizem respeito aos incentivos que propiciam o engajamento dos professores no programa de capacitação docente, considerando as diferentes maneiras ou modalidades pelas quais ela se efetiva. Abstract The planning of in-service education for teachers, should take into account four dimensions of its operacional structure: the decision-making level, its process, the teachers' participation factors and its modalities, considering that the sucess of teachers ' education depends on the interaction of these four dimensions. The decision-making level refers to the authority which provides equips and makes work a teachers ' development unit or centre. The process of in-service education comprises the content of programs, the procedures adopted and an evaluation of the efficiency and effectiveness of the activities planned The facilitating factors refer to the incentives which enable teachers' participation in the teachers' education program, taking into accout the different modalities which make it possible. Résumé La planification de l'éducation en service pour le professeur doit tenir compte de quatre dimensions de sa structure opérationnelle: le niveau de décision, son processus, les facteurs stimulateurs de la participation du personnel concerné et ses modalités, puisque le succès de la qualification des enseignants dépend de l 'interaction de ces quatre dimensions. Le niveau de décision signifie avoir l 'autorité pour créer un centre de perfectionnement de professeurs, l'équiper et le faire fonctionner. Le processus d'éducation en service comprend le contenu des programmes de ce perfectionnement, les procédés adoptés et l'évaluation de l'efficience et de l'efficacité des activités programmées. Les facteurs stimulateurs favorisent l'engagement des professeurs dans le programme de qualification du magistère, en tenant compte des différentes modalités par lesquelles elle se concrétise. Resumen El planteamiento de la educación en servicio para el profesor debe llevar en cuenta cuatro aspectos de su estructura operativa: el nivel decisorio, su proceso, los factores que facilitan ¡a participación del personal involucrado y sus modalidades, siendo que el éxito de la capacitación docente depende de la interacción de esas cuatro dimensiones. El nivel decisorio se refiere a la autoridad para originar, equipar y hacer funcionar una unidad o centro de perfeccionamiento de profesores. El proceso de educación en servicio abarca el contenido de los programas de perfeccionamiento, los procedimientos adoptados y la evaluación de la eficiencia y de la eficacia de las actividades programadas. Los factores facilitadores dicen respecto a los incentivos que favorecen el alistamiento de los profesores en el programa de capacitación docente, considerando las diversas maneras o modalidades por las quales ella se realiza.
APA, Harvard, Vancouver, ISO, and other styles
28

Grandjean, Martin, Yves Hanin, Alexandre Leclercq, Fiorella Quadu, and Ségolène Gréant. "TVBuONAIR au CREAT." lieuxdits, October 10, 2019, 16–18. http://dx.doi.org/10.14428/ld.vi14.23303.

Full text
Abstract:
L’article traite des logiques opérationnelles suivies dans la recherche-action TVBuONAIR. Il développe la démarche d’aide à la décision visant à répondre aux enjeux territoriaux de remise en état des corridors écologiques au niveau des milieux urbanisés à l’échelle du bassin transfrontalier de la Sambre. La recherche TVBuONAIR aborde la réintroduction de la nature en ville (mutualisation des connaissances, création d’outils de planification, sensibilisation, réalisation d’actions locales).
APA, Harvard, Vancouver, ISO, and other styles
29

Dumoulin, André. "Le processus de plasticité stratégique et tactico-opérationnelle des pays membres de l’Union Européenne." Cahiers de Science Politique de l’Université de Liège, February 10, 2021. http://dx.doi.org/10.25518/1784-6390.994.

Full text
Abstract:
La flexibilité conditionnelle dans le domaine de la sécurité coopérative et de la défense au sein de l’Union Européenne (UE) renvoie à l’idée de volontariat et de souveraineté des États. Ces derniers sont les maîtres du jeu et le refus de s’engager repose sur de nombreuses motivations : refus ou peur de grimper sur le terrain, refus d’être emporté par une opinion publique interventionniste, absence d’intérêts stratégiques, géopolitiques ou économiques en matière d’engagement, absence de mandat de l’Organisation des Nations Unies (ONU), faible disponibilité des ressources militaires et civiles, évaluation négative des pertes estimées, manque de conviction, manque de culture stratégique interventionniste (première entrée), hostilité des citoyens envers les engagements extérieurs, manque de consensus au sein du gouvernement et/ou parlement, calendrier électoral trop proche, manque d’informations sur la situation sur le terrain ou manque de partenaires pour une coalition. L’une des clés pourrait provenir de l’aboutissement d’une véritable autonomie diplomatique européenne parallèlement à une souveraineté européenne partagée mais aussi et surtout d’assurer « le suivi des décisions adoptées » et de parvenir à une forte cohérence en matière de politique étrangère qui devrait être unique. Le constructivisme n’est pas loin avec ses jeux d’influence, le partage des normes, les croyances partagées, la socialisation institutionnelle et les pratiques communes entre les forces militaires dans les opérations de la Politique de Sécurité et de Défense Commune (PSDC), l’union faisant la force. Il reste à clarifier et à respecter une feuille de route politique autant qu’une capacité de plus de cohérence et d’autonomie stratégique. Les États membres de l’UE devront proposer une analyse commune des menaces, définir les intérêts, puis les capacités, « pour protéger tous ses citoyens sur le sol européen ».
APA, Harvard, Vancouver, ISO, and other styles
30

Prieur, Joël. "La méthode militaire d’élaboration des décisions opérationnelles est-elle applicable à la gestion de la crise COVID-19 ?" Médecine de Catastrophe - Urgences Collectives, February 2021. http://dx.doi.org/10.1016/j.pxur.2021.02.007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Gautier, Axel. "Numéro 22 - juin 2004." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.16053.

Full text
Abstract:
La Commission européenne vient, en mars 2004, d’adopter une nouvelle série de réformes pour revitaliser le transport par chemin de fer. Les nouvelles directives (le «troisième paquet ferroviaire») prévoient l’ouverture d’ici 2010 du transport de passagers à la concurrence. Dans ce numéro de Regards économiques, nous analysons au travers de l’expérience de deux pays, l’Allemagne et l’Angleterre, les conséquences probables de la libéralisation du secteur sur le rail belge. 
 Ces deux pays ont en effet profondément modifié leur marché ferroviaire depuis 1994, mais les moyens mis en œuvre sont cependant différents. L’Angleterre a choisi une privatisation rapide du rail accompagnée d’un démantèlement de l’opérateur historique British Rail et a confié la gestion de l’infrastructure à Network Rail (ex-Railtrack), une société indépendante des opérations de transport. La privatisation du rail s’est accompagnée de nombreux incidents : accidents (Hatfield), retards, baisse de la qualité du service, faillite de Railtrack. Résultat : le rail britannique est fortement décrié. L’Allemagne a par contre choisi une réforme plus graduelle où l’opérateur historique Die Bahn reste un acteur important malgré l’arrivée de nombreux concurrents privés, et continue de gérer à la fois l’infrastructure (via sa filiale DB Netz) et les opérations de transport. Les autorités régionales (Länders) jouent également un rôle important dans l’organisation du secteur. De manière générale, les performances du rail se sont améliorées depuis 1994.
 En Belgique, la SNCB va bientôt se transformer en une société holding formée de deux filiales, l’une chargée de la gestion de l’infrastructure (Infrabel), l’autre des opérations de transport (qui gardera le nom SNCB). Cette réforme doit s’accompagner d’une amélioration des performances de la société et d’une réforme structurelle pour mettre en adéquation le rail belge avec le nouveau contexte européen. De plus, la régionalisation du transport ferroviaire sera probablement discutée après les élections du 13 juin, et les décisions prises sur ce point conditionneront les futures performances du secteur. 
 • Hausse des performances : en 2003, le résultat opérationnel de la SNCB (EBIT) fut de – 110 millions d’euros. Pour rivaliser avec ses concurrents, la société doit absolument améliorer ses performances tant dans le transport de marchandises que celui de passagers. L’avenir de la société dans le marché européen doit passer par une hausse sensible de son résultat opérationnel. La reprise d’une partie de la dette historique de la société par l’Etat (prévue par la directive européenne 91/440/EC) permettra en outre d’améliorer le résultat financier de la SNCB.
 • Réformes structurelles : dans le marché libéralisé, toutes les entreprises ferroviaires auront accès au réseau ferroviaire belge. L’arrivée probable de nouveaux opérateurs doit s’accompagner d’une régulation du secteur et d’une révision du financement des missions de service public.
 
 Réguler l’accès à l’infrastructure. Les directives européennes prévoient que le gestionnaire d’infrastructure alloue les sillons (infrastructure requise pour faire circuler un train donné d’un point à un autre à un moment donné) aux différents prestataires de service de manière transparente et non discriminatoire. Il faut donc instaurer un organe de contrôle qui vérifie que les concurrents sont traités de manière équitable. Ce contrôle est particulièrement nécessaire lorsque les opérations de transport et la gestion de l’infrastructure sont gérées au sein d’une même entreprise. En Allemagne, depuis la libéralisation du marché, les entreprises concurrentes se plaignent périodiquement du fait que Die Bahn avantage ses filiales dans le processus d’allocation des sillons. L’absence de régulation est un frein à l’introduction de la concurrence et au développement du marché.
 Le financement du service : dans l’actuel contrat de gestion, l’Etat spécifie l’offre minimale de services et alloue une dotation forfaitaire à la société. Actuellement, les lignes non rentables sont financées grâce à cette dotation de l’Etat et au surplus des lignes rentables. À l’avenir, les concurrents de la SNCB viendront s’installer prioritairement sur les segments rentables du marché, privant la société de revenus auparavant destinés au financement du service public. Le financement des missions de service public doit donc être entièrement revu et adapté à ce nouveau contexte. Deux options sont possibles : soit, pour l’exploitation des lignes non rentables, l’Etat et l’opérateur s’entendent sur un niveau de service et son financement. Au lieu d’une dotation forfaitaire, l’état alloue une dotation spécifique à chaque ligne. Ce système, utilisé en Allemagne pour le transport régional, met fin aux subsides croisés (les lignes non rentables sont financées grâce au surplus des lignes rentables et à la dotation de l’Etat) et facilite l’introduction de la concurrence via la procédure d’appel d’offre. Soit, on constitue un fond destiné au financement du service public; fond alimenté en partie par l’Etat et en partie par les compagnies. Chaque compagnie qui opère une ligne rentable contribue au fond. Chaque compagnie qui opère une ligne non rentable reçoit un subside du fond.
 
 • Régionalisation : la séparation de la filiale infrastructure en deux sociétés régionales est techniquement très difficile à mettre en œuvre. De plus, l’Europe ne reconnaît qu’un seul gestionnaire de réseau par pays, notamment pour la délivrance des certificats de sécurité. Cependant, il possible que l’on régionalise en partie le financement de l’infrastructure. La régionalisation, même partielle, du financement du réseau modifiera l’organisation du secteur. Les bailleurs de fonds voudront probablement obtenir le meilleur rendement sur leurs investissements. Un moyen pour y parvenir serait d’augmenter les revenus provenant des redevances d’infrastructure en permettant un plus large accès au réseau des opérateurs concurrents.
 
 L’Etat fédéral pourrait également confier aux régions le financement d’une partie des missions de service public. Ceci aurait pour conséquence probable le développement de compagnies ferroviaires régionales. La régionalisation pourrait aussi avoir comme conséquence l’augmentation de la concurrence dans le secteur.
APA, Harvard, Vancouver, ISO, and other styles
32

Gautier, Axel. "Numéro 22 - juin 2004." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2004.06.01.

Full text
Abstract:
La Commission européenne vient, en mars 2004, d’adopter une nouvelle série de réformes pour revitaliser le transport par chemin de fer. Les nouvelles directives (le «troisième paquet ferroviaire») prévoient l’ouverture d’ici 2010 du transport de passagers à la concurrence. Dans ce numéro de Regards économiques, nous analysons au travers de l’expérience de deux pays, l’Allemagne et l’Angleterre, les conséquences probables de la libéralisation du secteur sur le rail belge. 
 Ces deux pays ont en effet profondément modifié leur marché ferroviaire depuis 1994, mais les moyens mis en œuvre sont cependant différents. L’Angleterre a choisi une privatisation rapide du rail accompagnée d’un démantèlement de l’opérateur historique British Rail et a confié la gestion de l’infrastructure à Network Rail (ex-Railtrack), une société indépendante des opérations de transport. La privatisation du rail s’est accompagnée de nombreux incidents : accidents (Hatfield), retards, baisse de la qualité du service, faillite de Railtrack. Résultat : le rail britannique est fortement décrié. L’Allemagne a par contre choisi une réforme plus graduelle où l’opérateur historique Die Bahn reste un acteur important malgré l’arrivée de nombreux concurrents privés, et continue de gérer à la fois l’infrastructure (via sa filiale DB Netz) et les opérations de transport. Les autorités régionales (Länders) jouent également un rôle important dans l’organisation du secteur. De manière générale, les performances du rail se sont améliorées depuis 1994.
 En Belgique, la SNCB va bientôt se transformer en une société holding formée de deux filiales, l’une chargée de la gestion de l’infrastructure (Infrabel), l’autre des opérations de transport (qui gardera le nom SNCB). Cette réforme doit s’accompagner d’une amélioration des performances de la société et d’une réforme structurelle pour mettre en adéquation le rail belge avec le nouveau contexte européen. De plus, la régionalisation du transport ferroviaire sera probablement discutée après les élections du 13 juin, et les décisions prises sur ce point conditionneront les futures performances du secteur. 
 • Hausse des performances : en 2003, le résultat opérationnel de la SNCB (EBIT) fut de – 110 millions d’euros. Pour rivaliser avec ses concurrents, la société doit absolument améliorer ses performances tant dans le transport de marchandises que celui de passagers. L’avenir de la société dans le marché européen doit passer par une hausse sensible de son résultat opérationnel. La reprise d’une partie de la dette historique de la société par l’Etat (prévue par la directive européenne 91/440/EC) permettra en outre d’améliorer le résultat financier de la SNCB.
 • Réformes structurelles : dans le marché libéralisé, toutes les entreprises ferroviaires auront accès au réseau ferroviaire belge. L’arrivée probable de nouveaux opérateurs doit s’accompagner d’une régulation du secteur et d’une révision du financement des missions de service public.
 
 Réguler l’accès à l’infrastructure. Les directives européennes prévoient que le gestionnaire d’infrastructure alloue les sillons (infrastructure requise pour faire circuler un train donné d’un point à un autre à un moment donné) aux différents prestataires de service de manière transparente et non discriminatoire. Il faut donc instaurer un organe de contrôle qui vérifie que les concurrents sont traités de manière équitable. Ce contrôle est particulièrement nécessaire lorsque les opérations de transport et la gestion de l’infrastructure sont gérées au sein d’une même entreprise. En Allemagne, depuis la libéralisation du marché, les entreprises concurrentes se plaignent périodiquement du fait que Die Bahn avantage ses filiales dans le processus d’allocation des sillons. L’absence de régulation est un frein à l’introduction de la concurrence et au développement du marché.
 Le financement du service : dans l’actuel contrat de gestion, l’Etat spécifie l’offre minimale de services et alloue une dotation forfaitaire à la société. Actuellement, les lignes non rentables sont financées grâce à cette dotation de l’Etat et au surplus des lignes rentables. À l’avenir, les concurrents de la SNCB viendront s’installer prioritairement sur les segments rentables du marché, privant la société de revenus auparavant destinés au financement du service public. Le financement des missions de service public doit donc être entièrement revu et adapté à ce nouveau contexte. Deux options sont possibles : soit, pour l’exploitation des lignes non rentables, l’Etat et l’opérateur s’entendent sur un niveau de service et son financement. Au lieu d’une dotation forfaitaire, l’état alloue une dotation spécifique à chaque ligne. Ce système, utilisé en Allemagne pour le transport régional, met fin aux subsides croisés (les lignes non rentables sont financées grâce au surplus des lignes rentables et à la dotation de l’Etat) et facilite l’introduction de la concurrence via la procédure d’appel d’offre. Soit, on constitue un fond destiné au financement du service public; fond alimenté en partie par l’Etat et en partie par les compagnies. Chaque compagnie qui opère une ligne rentable contribue au fond. Chaque compagnie qui opère une ligne non rentable reçoit un subside du fond.
 
 • Régionalisation : la séparation de la filiale infrastructure en deux sociétés régionales est techniquement très difficile à mettre en œuvre. De plus, l’Europe ne reconnaît qu’un seul gestionnaire de réseau par pays, notamment pour la délivrance des certificats de sécurité. Cependant, il possible que l’on régionalise en partie le financement de l’infrastructure. La régionalisation, même partielle, du financement du réseau modifiera l’organisation du secteur. Les bailleurs de fonds voudront probablement obtenir le meilleur rendement sur leurs investissements. Un moyen pour y parvenir serait d’augmenter les revenus provenant des redevances d’infrastructure en permettant un plus large accès au réseau des opérateurs concurrents.
 
 L’Etat fédéral pourrait également confier aux régions le financement d’une partie des missions de service public. Ceci aurait pour conséquence probable le développement de compagnies ferroviaires régionales. La régionalisation pourrait aussi avoir comme conséquence l’augmentation de la concurrence dans le secteur.
APA, Harvard, Vancouver, ISO, and other styles
33

Gagnon, Éric. "Sociologie et anthropologie." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.038.

Full text
Abstract:
L’anthropologie sociale et la sociologie sont des disciplines jumelles. Toutes deux s’intéressent à la diversité des formations sociales et à leurs transformations, plus particulièrement à l’articulation entre la subjectivité ou l’expérience individuelle et l’univers social. Elles partagent sensiblement les mêmes méthodes (observation, entrevues, recensements, analyse de textes, etc.), elles puisent toutes les deux dans les mêmes disciplines avoisinantes (histoire, philosophie, psychanalyse, études littéraires), et surtout, elles pratiquent entre elles de nombreux échanges (concepts, cadres théoriques, analyses). Nombreuses sont les personnes qui circulent entre les deux par l’enseignement, les colloques et les revues. L’anthropologie et la sociologie partagent également les mêmes doutes: elles sont promptes à se remettre en cause et à interroger leurs fondement en raison du rapport complexe qu’elles entretiennent avec leur «objet»; elles sont tiraillées entre une revendication de scientificité et d’objectivité, et un désir d’engagement dans les débats sociaux, entre un rattachement à la science et un rattachement aux humanités, entre l’usage d’un langage neutre et technique et un langage plus personnel et littéraire; elles demeurent également toutes les deux tentées par une forme d’impérialisme : le désir de rassembler sous son aile théorique les autres sciences sociales. Disciplines jumelles, elles ne sont pas pour autant identiques. Des différences importantes demeurent, qui ont cependant évolué ces dernières décennies. Il y a quarante ans encore, on pouvait distinguer l’anthropologie sociale et la sociologie, en notant que la première (de l'anthropologie culturelle américaine au structuralisme français) s’intéresse aux sociétés les plus diverses, qu’elle compare entre elles, afin de dégager les constantes et les variations, alors que la seconde (de l'école durkheimienne à la sociologie urbaine de Chicago) s’intéresse uniquement aux sociétés modernes, qu’elle compare chacune avec son passé pour mesurer ce qui a changé et comprendre le sens de la modernité. La première fait une comparaison dans l’espace entre des sociétés très différentes, l’autre fait une comparaison dans le temps, entre deux moments d’une même société. La première s’emploie à réduire l’écart entre les cultures en montrant comment les conduites et les représentations des «autres», bien que différentes ne pas sont irrationnelles, barbares ou arriérées (Lévi-Strauss, 1962; Geertz, 1983), alors que la seconde s’interroge sur ce que «nous» sommes devenus, ce que nous avons gagné ou perdu avec les transformations de la société (Touraine, 1992; Freitag, 2002). Cette distinction n’est toutefois plus possible aujourd’hui, et cela pour plusieurs raisons. D’abord, les sociétés exotiques ou radicalement différentes de l’Occident ont disparu, et les cultures comme entités relativement homogènes et séparées ont fait place à des villes cosmopolites et aux échanges planétaires. Anthropologie et sociologie comparent les différentes formes et expériences de modernisation et de modernité à travers le monde (Dumont, 1983). Elles s’intéressent aux mêmes objets, des biotechnologies aux transformations de la famille en passant par l’État et les réseaux internet. Ensuite, les deux disciplines font face à des interprétations concurrentes de plus en plus nombreuses : elles voient leurs analyses critiquées et réfutées par ceux-là même qu’elles étudient. Elles s’insèrent dans des débats sociaux et politiques qui les précèdent et auxquels elles apportent un point de vue susceptible d’être contesté. Enfin, le caractère de plus en plus opérationnel, appliqué et pluridisciplinaire de la recherche, favorise au sein des deux disciplines l’uniformisation des méthodes et des approches théoriques, et surtout conduit à la fragmentation des objets. Elles étudient moins des sociétés ou des cultures que des secteurs d’activités (ex : la santé, la famille, la religion), et avec cette spécialisation, un anthropologue et un sociologue travaillant dans le même secteur ont souvent davantage en commun et à partager, que deux anthropologues travaillant dans des secteurs différents. Ces changements n’ont toutefois pas entièrement effacé les différences. L’anthropologie et la sociologie conservent chacune un style et une orientation qui lui sont propres, et qui tiennent à leur rapport différent à la modernité. Toutes deux entretiennent un rapport ambivalent aux idéaux de la modernité, mais l’ambivalence n’est pas la même. Les sociologues demeurent largement attachés aux idéaux d’autonomie, de rationalisation et d’égalité. L’émancipation des individus et des collectivités à l’égard des croyances et des idéologies, et de toutes les formes de domination politique et culturelle, ainsi que le développement d’une capacité du sujet de réfléchir sa situation et de s’orienter en fonction d’un projet politique, demeurent au centre de l’analyse et de l’imagination sociologique (Wright Mills, 1959). La critique porte largement sur la perversion de ces idéaux : perversion de l’autonomie dans l’individualisme, de la raison dans la rationalité instrumentale, de l’égalité dans les différences d’accès aux décisions, aux biens et aux savoirs. D’où cet effort constant des sociologues pour placer les sociétés modernes devant leurs contradictions, rappeler leurs promesses non tenues (persistance des inégalités, formes de domination) et montrer les effets pervers de leurs idéaux (bureaucratie, narcissisme); d’où leur intérêt pour ce qui favorise l’esprit critique : l’éducation, les espaces de discussion, de délibération et de participation politique. Plus distants à l’égard de l’Occident, les anthropologues n’en sont pas moins attachés à certaines valeurs de la modernité, l’autonomie et l’égalité, et tout particulièrement l’idéal politique de tolérance et de respect des différences. L’anthropologie continue de s’intéresser à tout ce qui s’écarte de la culture occidentale, aux façons de vivre, de faire et de dire qui se démarquent de celles que le marché et les médias imposent partout dans le monde, à toutes les identités, pratiques et savoirs à la marge, dissidentes ou exclues des courants dominants, à tout ce qui est considéré comme anormal, regardé avec mépris ou négligé. L’anthropologie demeure une critique de toute forme d’absolutisme dans la pensée, la morale et le jugement esthétique (Geertz, 2000) ; elle s’emploie à élargir notre expérience et notre compréhension du monde, à les ouvrir à tout ce qui étonne et dérange au premier abord; elle invite à ne pas demeurer prisonnier de son point de vue. Du relativisme culturel qu’elle a longtemps défendu, l’anthropologie conserve cet intérêt pour l’autre, jamais identique ni absolument différent de soi. D’où cette préoccupation constante chez les anthropologues pour la relation qu’ils entretiennent avec ceux qu’ils étudient et ce qui est en jeu dans cette relation; d’où leur attachement au terrain, à la description minutieuse des pratiques et des représentations, alors que les sociologues aiment élaborer de grandes typologies et périodisations. L’autonomie demeure ainsi la grande affaire de la sociologie, et l’altérité est le maitre mot de l’anthropologie. En sociologie, les travaux d’Ulrich Beck (2001) et d’Antony Giddens (1991), chacun à leur manière, illustrent la place centrale qu’occupe la question de l’autonomie. Le premier a défini la société contemporaine comme une société du risque, caractérisée par une crise de la planification et du progrès, une perte de confiance dans la rationalité scientifique et une perte de maitrise des sociétés et des individus sur leur destin; l’un des enjeux principaux auxquelles ces sociétés font face est la capacité des individus à exercer leur jugement critique. Le second s’est longuement intéressé à la manière dont les «acteurs» réfléchissent leur situation, se construisent une identité, font des choix; si la société exerce des contraintes sur les individus, elle leur fournit également des ressources pour penser leur situation et s’en émanciper. En anthropologie, les travaux de Philippe Descola (2005) et d’Ellen Corin (2010) donnent deux aperçus de la manière de traiter la question de l’altérité et des rapports que les individus et les groupes entretiennent avec elle. Le premier s’est attelé à comprendre la diversité des rapports que les sociétés ont entretenu avec la nature, des formes d’altérité que l’homme entretient avec les animaux notamment, brouillant ainsi les frontières entre nature et culture. La seconde s’est longuement intéressée à la capacité des individus et des sociétés à tolérer la différence et la marge, à nommer et symboliser ce qui est étrange et dérange, à composer avec l’altérité radicale, logée en eux-mêmes, leurs pulsions, ce qui les trouble. Ce ne sont là que quelques exemples qui illustrent les préoccupations au centre des deux disciplines. Comme toute distinction, celle-ci est bien sûr trop schématique : les oppositions sont rarement aussi nettes et les chevauchements souvent très nombreux. Sans doute faut-il éviter les cloisonnements, ne pas délimiter des territoires ou des champs de pratique réservés, tout comme il faut se garder de tout confondre et d’abolir les différences. Si un écart doit être maintenu, c’est pour préserver un espace où circuler et échanger.
APA, Harvard, Vancouver, ISO, and other styles
34

GROSCLAUDE, F. "Avant-propos." INRAE Productions Animales 11, no. 1 (1998). http://dx.doi.org/10.20870/productions-animales.1998.11.1.3911.

Full text
Abstract:
Quoiqu’entré dans le langage courant, le terme de “biotechnologies” a gardé une signification quelque peu imprécise. Au sens large, les biotechnologies peuvent être définies comme un ensemble de techniques et de connaissances permettant d’exploiter les propriétés du vivant à des fins d’application. Sous cette acception, les biotechnologies sont aussi vieilles que nos civilisations puisque l’homme s’est servi très tôt - bien sûr sans le savoir - de micro-organismes pour fabriquer des aliments tels le pain, le fromage et des boissons fermentées. Mais ce sont les avancées spectaculaires de la biologie moderne, notamment celles de la biologie moléculaire, qui élargissent presque à l’infini le champ d’application potentiel des biotechnologies. C’est le cas, entre autres, des applications possibles à l’élevage des progrès de la biologie animale.
 Le présent ouvrage regroupe, sur les biotechnologies animales, huit contributions qui représentent un spectre très large d’applications : produits issus de procédés biotechnologiques (vaccins, hormone), techniques de reproduction, aide à l’ amélioration génétique, transgenèse et nouveaux outils d’analyse de mécanismes biologiques. Prenant le contre-pied d’une certaine partie de la littérature antérieure sur le sujet, qui se présente comme une sorte d’hymne un peu naïf à la modernité, ces textes sont inspirés par le souci de replacer les biotechnologies dans leur contexte d’application réel, qu’il soit actuel ou potentiel, en essayant de dégager les perspectives et les limites de leur utilisation, tant du point de vue économique que de celui de l’acceptabilité par le citoyen. Dans cette optique, il est intéressant de rapprocher certaines des contributions présentées.
 Le premier rapprochement suggéré est celui des contributions traitant de l’utilisation de produits issus des biotechnologies, les vaccins et l’hormone de croissance recombinante. Dans le cas de la fabrication des vaccins, les progrès de la biologie moléculaire, associés à ceux des connaissances sur les agents pathogènes et le déterminisme de leur virulence, ont ouvert une série de voies nouvelles (vaccins recombinants, vecteurs inertes ou subunitaires). Toutefois, comme le remarque M. Eloit, ces produits ne sont pas encore entrés en force sur le marché pour des raisons d’ordre pratique et économique. En effet, les vaccins “de nouvelle génération” ne sont pas forcément à ce stade plus intéressants que les vaccins conventionnels existants, et ne sont pas nécessairement plus faciles à produire quand ces derniers n’ont pas pu l’être. On a donc ici le cas d’applications très attendues, ne posant pas de problème majeur d’acceptabilité par le public, mais qui n’ont pas encore débouché autant qu’on pouvait l’espérer. Bien entendu, il reste encore une marge de progrès considérable, et la vaccinologie moderne ne peut qu’aboutir, à l’avenir, à des obtentions significatives.
 A l’opposé, la production industrielle d’hormone de croissance recombinante est bien maîtrisée. Par ailleurs, une somme importante de connaissances, synthétisées par Y. Chilliard et coll., a été accumulée sur les effets zootechniques de cette hormone -positifs- ainsi que sur son mode d’action et sur les conséquences prévisibles de son utilisation au niveau des élevages et de la filière. Mais on sait que l’utilisation de cette hormone recombinante est interdite en Europe pour des raisons socio-économiques : il s’agit du refus de voir encore accélérer le processus de concentration des élevages avec ses conséquences sur la déprise de certaines zones agricoles, ainsi que de la crainte d’une dégradation de l’image des produits laitiers. On a donc ici le cas, inverse du précédent, d’un outil techniquement au point mais dont l’utilisation, pourtant fortement voulue par les lobbies industriels intéressés, se heurte à des oppositions inspirées par le souci de l’intérêt général.
 Le second groupe d’articles qu’il est intéressant de rapprocher est celui des biotechnologies de la reproduction : insémination artificielle, cryoconservation des gamètes, transplantation embryonnaire, sexage des embryons, fécondation in vitro et clonage embryonnaire. Il s’agit des contributions de J. Mallard et J.-C. Mocquot, J.-J. Colleau et coll., et G. Maisse et coll. L’insémination artificielle, et notamment son application aux bovins laitiers, est l’exemple par excellence d’une technologie de la reproduction ayant connu un plein succès. Comme le notent J. Mallard et J.-C. Mocquot, on dispose dans ce cas du recul nécessaire pour analyser tous les effets de l’utilisation de cette technologie, bien au point chez les bovins, qui sont considérables. Associée à la congélation du sperme, l’insémination artificielle a surtout permis le testage des mâles puis l’utilisation préférentielle des sujets améliorateurs ainsi repérés. Or, même si le terme de “testage” n’existait pas encore, l’idée d’une pratique consistant à observer la descendance des taureaux pour pouvoir ensuite en utiliser les meilleurs préexistait, avant sa réalisation effective, chez les plus clairvoyants des éleveurs et des cadres de l’élevage. On a, sur ce point, des témoignages datant de plus de 75 ans. Il est donc fondamental de prendre conscience du fait que la technologie de l’insémination artificielle associée à la congélation du sperme est venue répondre à un besoin latent très fort, ce en quoi elle représente un cas de figure très particulier. La situation n’est pas tout à fait comparable pour les autres biotechnologies de la reproduction - transplantation embryonnaire, sexage des embryons, clonage embryonnaire - qui répondent certes à des besoins, mais à des besoins beaucoup moins caractérisés et plus réduits que le précédent. L’article de J.-J. Colleau et coll. permet de préciser les limites techniques et économiques de l’utilisation de ces nouveaux outils de la reproduction, ainsi que leurs perpectives d’application dans les programmes d’amélioration génétique, c’est-à-dire dans le cadre d’une démarche d’intérêt collectif. Curieusement, la cryoconservation des gamètes, routinière dans certaines espèces, est loin d’être au point dans d’autres, alors qu’elle pourrait rendre de grands services dans le cadre de la sélection et dans celui de la préservation des ressources génétiques. La contribution de G. Maisse et coll. fait le point des travaux qui se poursuivent chez les poissons, où de nombreuses difficultés restent à résoudre.
 Au début des années 80, période pendant laquelle, selon la formule de J. Mallard et J.-C. Mocquot, le terme de biotechnologies était “majoritairement décliné au futur”, la transgenèse a été volontiers présentée comme le substitut moderne aux méthodes de la génétique quantitative utilisées pour l’amélio ration génétique des espèces d’élevage. La lecture des contributions de D. Boichard et coll. sur l’utilisation des marqueurs moléculaires en génétique animale et de L.M. Houdebine sur la transgenèse animale confirme à quel point ces prévisions étaient naïves. A l’heure actuelle, deux constats principaux doivent être faits. Tout d’abord, la transgenèse appliquée à la création de souches des grandes espèces animales est encore balbutiante, surtout par manque de techniques vérita blement opérationnelles. En second lieu, les travaux d’analyse des génomes animaux qui, eux, progressent très vite, doivent permettre, dans un avenir proche, de détecter les principales régions chromosomiques impliquées dans le déterminisme des caractères économiques et d’intégrer cette masse d’informations nouvelles dans le processus de sélection. Il s’agira du début d’une nouvelle phase décisive de l’histoire de la génétique appliquée aux espèces d’élevage. Les progrès auront donc été beaucoup plus significatifs que pour la trans genèse. A l’avenir, celle-ci devrait bénéficier des résultats de ces travaux d’analyse du génome, ne serait-ce que pour identifier des gènes dont le transfert ou la mutation pourrait s’avérer judicieux. Il restera quand même à prendre en compte, dans le contexte futur encore incertain, les limites de l’acceptabilité par le public des obtentions transgéniques.
 Last but not least, il ne faut pas oublier que les nouvelles biotechnologies sont à leur tour des outils très puissants d’analyse des mécanismes du vivant. La contribution de T. Pineau donne l’exemple des avancées en cours dans les domaines de la pharmacologie et de la toxicologie.
 En définitive le bilan qui peut être fait aujourd’hui des avancées des biotechnologies animales peut paraître contra sté, surtout si on se réfère aux prévisions faites il y a une quinzaine d’années par les bateleurs de la Science. De nos jours, l’affichage des perspectives d’application des biotechnologies reste parfois contaminé par la nécessité devant laquelle se trouvent les équipes, engagées dans la chasse aux crédits, de justifier leurs travaux par la promesse de retombées concrètes. Toutefois, la lecture du présent document montre que, dans certains domaines, les choses ont déjà beaucoup avancé. Par ailleurs, les perspectives de progrès de la biologie animale sont encore considérables, tout comme les perspectives d’application des biotechnologies qui en décou leront. Mais beaucoup d’inattendu étant devant nous, on se gardera ici d’être plus précis dans les prédictions !
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography