Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Échelle numérique.

Articles de revues sur le sujet « Échelle numérique »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 42 meilleurs articles de revues pour votre recherche sur le sujet « Échelle numérique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les articles de revues sur diverses disciplines et organisez correctement votre bibliographie.

1

Zarcone, Roberta, Ahmed Hussein et Mohammad Mansouri. « Morphogenèse et fabrication d’une forme structurellement informée : expériences pédagogiques sur les systèmes funiculaires ». SHS Web of Conferences 47 (2018) : 01018. http://dx.doi.org/10.1051/shsconf/20184701018.

Texte intégral
Résumé :
Ce papier s’interroge sur la forme comme résultat d’un système qui interprète les enjeux contextuels, programmatiques et structuraux afin de concevoir et fabriquer des systèmes funiculaires à l’aide de méthodes à la fois physiques et numériques pour profiter de leurs potentialités structurales et géométriques. Les systèmes funiculaires sont des méthodes historiques de construction, mais les récentes méthodes numériques donnent de nouvelles possibilités architecturales et structurales à ce type de structures. Les expériences pédagogiques menées visent à trouver des formes (form finding) de haute qualité morphologique et de haute performance structurale. Ce papier présente la méthode pédagogique et, pour des cas concrets, l’algorithme de génération de la surface courbe pavée, en proposant différentes morphologies en réponses aux problématiques d’ordres géométriques et techniques, et la fabrication numérique à échelle un.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Baraudon, Charlotte, Jean-Baptiste Lanfranchi, J. M. Christian Bastien et Stéphanie Fleck. « Conception d’une échelle française d’évaluation de l’utilisabilité des nouvelles technologies éducatives par l’enfant ». Médiations et médiatisations, no 5 (29 janvier 2021) : 44–67. http://dx.doi.org/10.52358/mm.vi5.174.

Texte intégral
Résumé :
Le numérique ne cesse de se développer, notamment à l’école où les politiques éducatives en ont fait un des leviers de recherche prioritaires. Une utilisation efficace des technologies numériques éducatives est essentielle pour que les élèves puissent atteindre des objectifs d’apprentissages. Ainsi, il est important de pouvoir recueillir les perceptions des principaux utilisateurs que sont les enseignants et les élèves sur l’utilisabilité de ces nouvelles technologies en classe. Or, à notre connaissance, il n'existe pas encore de questionnaire d'évaluation de l'utilisabilité des interfaces numériques en français spécifiquement adapté aux jeunes élèves. K-Uses est une échelle de mesure d'évaluation de la perception de l'utilisabilité par les jeunes utilisateurs. Cette échelle de mesure repose sur le modèle présenté dans la norme ISO 9241-11 à laquelle nous avons ajouté le critère de « learnability » de Nielsen. Cet article présente la construction et les premiers éléments de validation du K-Uses avec des enfants âgés de 9 à 11 ans. La méthode utilisée a consisté en un examen de questionnaires d'utilisabilité existants, des prétests auprès d’enseignants et d’élèves auxquels ont participé trois évaluateurs et une analyse exploratoire des données recueillies auprès de 127 élèves. Les résultats sont prometteurs et montrent des niveaux satisfaisants de validité et de fiabilité.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Furet, Agathe, Stephane Lambert, Pascal Villard, Jean-Philippe Jarrin et Julien Lorentz. « Réponse sous impact de murs pare-blocs ». Revue Française de Géotechnique, no 163 (2020) : 9. http://dx.doi.org/10.1051/geotech/2020017.

Texte intégral
Résumé :
Cet article présente l’étude du comportement dynamique de murs innovants de protection contre les chutes de blocs constitués de blocs en béton liés entre eux par un assemblage d’armatures. Les différents modes de déformation des murs et l’influence de la géométrie des murs sur leur réponse en déplacement sont étudiés par la réalisation d’impacts sur des murs à échelle 1/4, dans des configurations variées. Un modèle numérique basé sur une approche tridimensionnelle et continue, représentant de manière réaliste les différents constituants de la structure et leurs interactions, est ensuite proposé. Les résultats numériques concernant le déplacement de l’ouvrage sont confrontés aux résultats expérimentaux. Enfin, la dissipation d’énergie au sein de l’ouvrage est abordée, en considérant les différents mécanismes dissipatifs et leur contribution.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Jaber, Jana, Marianne Conin, Olivier Deck, Olivier Godard et Samuel Kenzari. « Essai préliminaire de l’application de l’impression 3D à la modélisation physique des massifs rocheux ». Revue Française de Géotechnique, no 168 (2021) : 1. http://dx.doi.org/10.1051/geotech/2021011.

Texte intégral
Résumé :
Cet article présente une étude de l’applicabilité de l’impression 3D (3DP) en modélisation physique des massifs rocheux. Le comportement mécanique des massifs rocheux est contrôlé par les propriétés de la roche intacte, et par la présence des discontinuités rocheuses à différentes échelles. Afin de comprendre l’influence de ces discontinuités sur le comportement mécanique des ouvrages exploités dans un massif rocheux, la 3DP est utilisée pour introduire explicitement les discontinuités dans la modélisation physique. Des joints rocheux artificiels sont fabriqués en polyamide 12 par 3DP (technique de frittage laser SLS). Ils sont caractérisés géométriquement (rugosité, ouverture du joint, présence de ponts rocheux) et mécaniquement (raideur normale et tangentielle, cohésion, angle de frottement) pour reproduire le comportement d’un joint rocheux réel. Les résultats des joints rocheux sont représentés à l’échelle du prototype (échelle 1) en appliquant des lois de similitudes et comparés à des propriétés des joints réels. Finalement, une comparaison entre le comportement mécanique d’un massif rocheux discontinu numérique à l’échelle du prototype et celui d’un modèle réduit ayant les propriétés du PA12 obtenues par 3DP permet de valider la capacité de cette technique à reproduire le comportement d’un massif discontinu à une échelle réduite.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Fiorentino, A., J. Tischhauser, M. J. Roulin et A. S. Ramelet. « Concordance entre l'hétéroévaluation de l'infirmière et l'autoévaluation de la douleur du patient en salle de réveil ». Douleur et Analgésie 31, no 1 (mars 2018) : 28–34. http://dx.doi.org/10.3166/s11724-017-0538-8.

Texte intégral
Résumé :
Objectif : Tester le niveau de concordance entre l'autoévaluation de la douleur et l'hétéroévaluation par l'infirmière en salle de soins et surveillance postinterventionnelle. Matériel et Méthode : Quarante patients ont autoévalué leur douleur sur une échelle numérique verbale concomitamment à une hétéroévaluation réalisée par l'infirmière. Devis descriptif corrélationnel. Résultats : Le test de Pearson a montré une corrélation forte r=0,86. Le graphique de Bland-Altman montre une concordance jugée faible au niveau de la pertinence clinique (± 1 point). Conclusion : Parvenir à une concordance reste limité même dans les lieux de soins où l'interaction patient–infirmière est fréquente. Une valeur numérique seule n'est pas suffisante pour traduire pleinement l'expérience de la douleur.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bergeron, Dave A., Geneviève Leduc, Serge Marchand et Patricia Bourgault. « Étude Descriptive du Processus D’ÉValuation et de Documentation de la Douleur Postopératoire dans un Hôpital Universitaire ». Pain Research and Management 16, no 2 (2011) : 81–86. http://dx.doi.org/10.1155/2011/480479.

Texte intégral
Résumé :
Plusieurs études démontrent que les patients reçoivent souvent un traitement insatisfaisant de la douleur en contexte postopératoire. Le but de la présente étude descriptive était d’examiner et d’analyser diverses données ayant trait au soulagement de 40 patients après une intervention chirurgicale non urgente. Les patients ont rempli un journal de douleur afin d’évaluer le niveau d’intensité et de désagrément engendré par la douleur durant les trois premières journées postopératoires. Une analyse du dossier a permis de vérifier la documentation de l’évaluation de la douleur par le personnel infirmier. Les résultats indiquent que la douleur en contexte postopératoire est peu et inadéquatement évaluée et peu documentée par le personnel infirmier. Lorsque la douleur est évaluée selon une échelle numérique, les infirmières ont tendance à la sous-évaluer en comparaison avec l’évaluation notée par les patients. Pour la première journée postopératoire, l’intensité moyenne de la douleur documentée par les infirmières est de 1,57 (±0,23) sur une échelle numérique de 0 à 10, alors que l’intensité moyenne documentée par les patients est de 3,82 (±0,41). Cette étude fait ainsi ressortir qu’il n’y a pas de corrélation significative entre l’intensité de la douleur documentée par l’infirmière et celle notée par le patient, ce qui peut expliquer en partie un soulagement non optimal.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Juvanon du Vachat, Régis. « Panorama de la prévision numérique à échelle fine ou à domaine limité ». La Météorologie 8, no 6 (1994) : 31. http://dx.doi.org/10.4267/2042/53422.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Nebout, Sophie, Smail Ghanem, Emilie Berthe, David Hajage et Hawa Keita-Meyer. « Douleur obstétricale : l’échelle visuelle analogique et échelle numérique sont corrélées mais l’échelle numérique a une meilleure capacité à déterminer un soulagement après analgésie péridurale ». Anesthésie & ; Réanimation 1 (septembre 2015) : A188—A189. http://dx.doi.org/10.1016/j.anrea.2015.07.289.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Vandergucht, David. « ZFOREST : UN PROTOTYPE DE PLATEFORME WEB DE COVISUALISATION LIDAR, RASTER ET VECTEUR À GRANDE ÉCHELLE. » Revue Française de Photogrammétrie et de Télédétection 1, no 211-212 (30 décembre 2020) : 129–42. http://dx.doi.org/10.52638/rfpt.2015.551.

Texte intégral
Résumé :
En recherche comme en exploitation forestière, la donnée Lidar aéroportée apporte des clefs de compréhension surla structure du terrain, de la forêt et par extension, des informations sur la biomasse aérienne. Mais pour être utile, cette donnée Lidar doit couvrir de vastes étendues tout en étant très résolue spatialement. Ces caractéristiques se traduisent par de grands volumes de données très difficiles à visualiser, manipuler et étudier sans l’aide de logiciels très onéreux.Dans le cadre du projet ANR FORESEE, nous avons développé un logiciel web, de visualisation mixte nuage de pointsLidar / surface 3D issue d’un Modèle Numérique de Terrain / carte / photographie aérienne et terrestre / donnée vectorielle : la plateforme zForest. Ce logiciel, qui s’adresse aux chercheurs en télédétection et à terme aux exploitants forestiers, permet la navigation à grande échelle dans des données massives et leur exploration, du niveau de détail le plus large (la région) jusqu’au plus fin (l’arbre). Cet outil permet la mesure, l’annotation et l’extraction des données. Il propose également une interface de programmation web (API) permettant à d’autres outils du marché d’utiliser ses données sources. zForest étant une plateforme web, elle est disponible sans installation sur tous les navigateurs internet récents, facilitant son accessibilité et son déploiement.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Lisein, Jonathan, Stéphanie Bonnet, Philippe Lejeune et Marc Pierrot-Deseilligny. « Modélisation de la canopée forestière par photogrammétrie depuis des images acquises par drone ». Revue Française de Photogrammétrie et de Télédétection, no 206 (19 juin 2014) : 45–54. http://dx.doi.org/10.52638/rfpt.2014.7.

Texte intégral
Résumé :
Les petits drones civils développés à des fins de cartographie rapide offrent, à une échelle locale, de nombreuses opportunités pour le suivit d'écosystèmes forestiers. Nous utilisons dans cette recherche des images acquises avec un avion sans pilote à voilure fixe afin de modéliser la surface de la canopée de peuplements feuillus. Une chaine de traitements photogrammétriques est mise en place aux moyens des outils de la suite open source {\tt MICMAC}. Nous comparons différentes stratégies de corrélation automatique d'images afin de déterminer le paramétrage qui permet au mieux de reconstruire les détails de la canopées. Bien que le modèle de surface photogrammétrique ne permette pas d'appréhender les petites dépressions et élévations des houppiers, nos résultats montrent que l'utilisation conjointe d'images drone et d'un modèle numérique de terrain LiDAR permet de mesurer la hauteur dominante des peuplements feuillus. Ces résultats confirment la faisabilité de modéliser l'évolution de la hauteurs des peuplements forestiers depuis une série temporelle d'images drone.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Hangouët, Jean-François, Michel Pausader et Jean-Philippe Cantou. « L'orthomosaïque à échelle départementale : les performances de l'imagerie Pléiades comparées au produit BD ORTHO® ». Revue Française de Photogrammétrie et de Télédétection, no 208 (5 septembre 2014) : 27–32. http://dx.doi.org/10.52638/rfpt.2014.127.

Texte intégral
Résumé :
Les performances de l'imagerie des satellites Pléiades permettent-elles d'envisager de l'utiliser pour la production d'orthomosaïques d'emprises départementales qui soient conformes aux spécifications de la BD ORTHO® de l'IGN? Tel est l'enjeu technique des tests de faisabilité que rapporte cet article. Quatre orthomosaïques départementales ont été constituées à partir de scènes fournies par le CNES et Airbus Defence and Space dans le cadre de la Recette Thématique Utilisateurs des données Pléiades. Les deux premiers prototypes, réalisés à partir de premières images de 2012 du satellite 1A, souffraient principalement de défauts d'exhaustivité (du fait de la combinaison des contraintes de programmation et des aléas climatiques) et de défauts planimétriques (du fait de la combinaison de trop forts angles d'incidence et d'inexactitudes dans le modèle numérique de terrain utilisé pour l'orthorectification). L'aspect, qui reste inhabituel pour les familiers de l'imagerie aérienne, n'était pas encore optimal (du fait de la version utilisée à l'époque de l'algorithme de fusion radiométrique des images). L'amélioration de l'algorithme de fusion, le travail sur la programmation de l'acquisition, facilitée par le lancement du satellite 1B, et le renforcement des contraintes sur les angles d'incidence et le taux de nébulosité ont permis de produire les deux prototypes suivants (sur des acquisitions de 2013) à un meilleur niveau de conformité à ce qui est attendu de la BD ORTHO®. L'imagerie Pléiades se montre ainsi potentiellement complémentaire de l'imagerie aérienne dans le cycle de renouvellement des couvertures nationales, ce qu'illustre notamment un autre test que nous avons mené, consistant à incruster l'orthorectification du massif du Mont-Blanc, vu par Pléiades, dans l'orthomosaïque BD ORTHO® d'origine aérienne du département de la Haute-Savoie (74).
Styles APA, Harvard, Vancouver, ISO, etc.
12

Samaan, Mariam, Marc Pierrot-Deseilligny, Raphaële Héno, Cyril Montoya et Sylvain Rassat. « La Photogrammétrie rapprochée pour la modélisation en 4D d'une structure archéologique ». Revue Française de Photogrammétrie et de Télédétection, no 207 (6 juillet 2014) : 59–70. http://dx.doi.org/10.52638/rfpt.2014.15.

Texte intégral
Résumé :
Depuis plusieurs années, la photogrammétrie numérique est devenue un outil important dans le domaine de l'archéologie. Les spécialistes de ce domaine reconnaissent que cette technique permet d'enregistrer et de documenter les structures archéologiques ou à plus grande échelle l'intégralité d'un chantier de fouille, de manière rapide, fiable et précise. Pour les sites préhistoriques notamment, il est très important d'enregistrer et de maitriser les différents niveaux de décapage de la fouille. Dans cet article, nous décrivons une méthodologie complète pour effectuer la numérisation photogrammétrique de structures archéologiques par un outil léger et à faible coût.La recherche expérimentale spécifique a eu lieu dans le cadre de la fouille programmée du site du Paléolithique supérieur de plein air "Le Colombier" à Chézy-sur-Marne (Aisne, France) dirigé par un des auteurs (C.M.). L'expérience s'est déroulée sur un foyer aménagé qui a été photographié à neuf étapes différentes du processus de décapage de la fouille. Des orthoimages à chaque étape ont été créées dans le but de produire un modèle 4D (intégrant le temps à la description photogrammétrique). En outre, des images numériques ont été acquises pour créer le modèle 3D complet.Des logiciels open source (Apéro / MicMac) ont été utilisés pour le géoréférencement et la corrélation dense. Ces procédures relativement standards conduisent à des cartes de profondeur, qui peuvent être représentées soit comme nuages de points 3D soit sous forme d'images en relief ombragé.En premier lieu, nous abordons une brève description du site, les outils et méthodes mises en œuvre. Dans un second temps, nous faisons le point sur les résultats obtenus avant de conclure sur les perspectives.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Rougegrez, L., et D. Servant. « Les programmes de gestion du stress par les TCC sur support numérique. Présentation et premiers résultats du programme français Seren@ctif ». European Psychiatry 30, S2 (novembre 2015) : S64. http://dx.doi.org/10.1016/j.eurpsy.2015.09.178.

Texte intégral
Résumé :
Les programmes de gestion du stress par les thérapies comportementales et cognitives (TCC) ont été étudiés dans de nombreux pays et ont montré une efficacité sur la réduction du stress perçu, les symptômes anxieux et de la qualité de vie des patients. Compte tenu du nombre très important de patients susceptibles d’en bénéficier et ne pouvant y accéder, des programmes en self-help ont été proposés. Présentés au début sous la forme de livres (bibliothérapie) ces programmes se sont ensuite enrichis de supports informatiques et numériques. Hélas autant les programmes de gestion du stress basés sur les TCC en présentiel que ceux sur support numérique ont été très peu évalués dans notre pays. À notre connaissance le programme Seren@ctif est le premier programme self-help de gestion du stress en français proposé sur support numérique. Nous avons mené une étude de faisabilité de ce programme sur 10 patients répondant au diagnostic de trouble de l’adaptation avec anxiété selon les critères du DSM-IV. Le programme comprend 5 séances hebdomadaires que le patient suit dans notre unité à partir d’un site internet. Il bénéficie d’un contact minimal avec un membre du personnel médical avant et après chaque séance. Il est fourni au patient, dès la première séance une clé USB contenant des vidéos, des fichiers audios, un self-help book sous forme de e-guide, des carnets de suivi avec le programme des exercices à réaliser en dehors des 5 séances du module. Le patient est encouragé à pratiquer les exercices 20 minutes quotidiennement 5 à 6 jours par semaine. La faisabilité du programme a été évaluée par une échelle originale de satisfaction. La symptomatologie anxieuse a été mesurée au moyen de la forme état de l’inventaire d’anxiété de Spielberger State Trait Anxiety Inventory – forme Y (STAI-Y STAI-S). Au terme des 5 semaines du programme on retrouve de bons résultats en termes d’acceptabilité et d’attractivité. Les scores moyens au questionnaire de satisfaction sont pour tous les items au moins égal à 4 sur 5. Les scores moyens à la STAI-état ont diminué de 53,4 (ET 8,29) à l’inclusion à 44,2 (ET 7,73) en post-intervention. Le programme Seren@ctif mériterait d’être évalué dans le futur de façon contrôlée chez des patients présentant un trouble de l’adaptation avec anxiété afin de juger de son intérêt.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Servant, D. « Du burn-out à la dépression professionnelle. Nouvelles approches en psychiatrie ». European Psychiatry 30, S2 (novembre 2015) : S63. http://dx.doi.org/10.1016/j.eurpsy.2015.09.175.

Texte intégral
Résumé :
L’exposition à un stress professionnel augmente d’un facteur d’environ 2 le risque de survenue d’une dépression ou d’un trouble anxieux . Les tableaux cliniques rencontrés sont variés et décrits selon différentes dénominations : burn-out ou épuisement professionnel, trouble de l’adaptation, dépression d’origine professionnelle… À l’heure où les pouvoirs publics s’interrogent sur la possibilité de reconnaître le burn-out comme maladie professionnelle il importe pour notre discipline de mieux définir le cadre diagnostique de ces différentes entités. Se posent aussi les questions de la prévention des risques psychosociaux (RPS) et de l’utilisation d’instruments validés et adaptés aux différents contextes professionnels. Une démarche qualitative et quantitative d’évaluation semble la mieux adaptée pour bien cerner les risques inhérents à une profession. Enfin, l’accès aux soins pour ces patients semble insuffisant comme le note un récent rapport du conseil économique social et environnemental qui recommande la création d’unités spécialisées pour la prise en charge. La gestion du stress par les thérapies comportementales et cognitives (TCC) semble bien adaptée à différentes situations comme la prévention primaire et secondaire et la reprise du travail . Elle peut être aussi associée aux soins pour beaucoup de patients psychiatriques confrontés à des difficultés professionnelles. De nouveaux outils de self-help utilisant des supports numériques sont aujourd’hui proposés pour faciliter l’accès à ces soins . À côté des protocoles classiques de TCC de gestion du stress de nouvelles approches thérapeutiques semblent utiles comme la thérapie ACT qui prend en compte les valeurs et les attentes du sujet . Nous présenterons dans cette séance 3 travaux originaux d’équipes françaises : une échelle originale des RPS chez les médecins, hospitaliers, une étude de faisabilité d’un programme numérique et une approche de reprise du travail basée sur l’ACT.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Oularé, Sékouba, Alexis Kassi Kouamé, Mahaman Bachir Saley, Gabriel Etienne Ake, Michel Amani Kouassi, Gnangui Christian Adon, Fernand Koffi Kouamé et René Therrien. « Estimation de la conductivité hydraulique des zones discrètes de réseaux de fractures à partir des charges hydrauliques : application au bassin versant du N’zo (ouest de la Côte d’Ivoire) ». Revue des sciences de l’eau 29, no 3 (13 février 2017) : 279–301. http://dx.doi.org/10.7202/1038928ar.

Texte intégral
Résumé :
L’estimation de la conductivité hydraulique d’un aquifère de socle à l’échelle régionale demeure un défi majeur. À cette échelle, les données sont rares, en quantité et en qualité. Cette étude propose une approche d’estimation de la conductivité hydraulique des aquifères de socle à partir de la calibration d’un modèle d’écoulement au moyen des charges hydrauliques. Elle est appliquée au bassin du N’zo couvrant une superficie de 4 300 km2. La méthodologie adoptée fait l’hypothèse que la perméabilité de l’aquifère est liée à des fractures verticales, perméables sur 100 m à partir de la surface. Elle fait aussi l’hypothèse que ces fractures peuvent être identifiées sous forme de linéaments et que tous les linéaments sont des fractures et sont perméables. La première étape de cette méthodologie est la cartographie des zones discrètes de perméabilité de l’aquifère. Elles sont identifiées à partir de l’analyse de la densité et l’orientation des « fractures » à l’échelle de mailles de travail. Les fractures sont assimilées aux linéaments cartographiés à partir d’une image radar. Six configurations spatiales de zones discrètes de perméabilité sont générées avec des mailles carrées de 2 à 12 km de côté. La deuxième étape porte sur la construction du modèle numérique d’écoulement à partir des limites extérieures du bassin versant, du MNT (Modèle numérique de terrain), du réseau hydrographique et d’une recharge uniforme. Enfin, la troisième étape consiste à transférer chaque configuration de zones discrètes de perméabilité générée au sein du modèle numérique d’écoulement, puis à le calibrer en régime permanent au moyen de charges hydrauliques observées ponctuellement (86 points de mesure). Les résultats indiquent que le modèle optimal de distribution spatiale des zones discrètes de perméabilité est obtenu avec les mailles de 4 km de côté. Les conductivités hydrauliques calculées oscillent entre 1,1 x 10-6 et 2,4 x 10-5 m∙s-1. Cependant, ces valeurs doivent être prises avec précaution, car l’identification des zones homogènes du réseau de fractures est basée sur l’approche très controversée des linéaments et la calibration est effectuée seulement avec des charges hydrauliques et non avec des flux. Le modèle conceptuel ainsi élaboré pourrait être amélioré en caractérisant l’hétérogénéité de l’aquifère de socle à partir d’autres hypothèses telles que la lithologie et par l’introduction d’autres types de données dans la calibration (ex. : débits, carte piézométrique).
Styles APA, Harvard, Vancouver, ISO, etc.
16

Rousseau, Daniel, Hong-Le Pham et Régis Juvanon du Vachat. « Vingt-cinq ans de prévision numérique du temps à échelle fine (1968-1993) ; de l'adaptation dynamique à maille fine au modèle Péridot ». La Météorologie 8, spécial (1995) : 129. http://dx.doi.org/10.4267/2042/52038.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
17

Fontaine, Guillaume, Sylvie Cossette, Marc-André Maheu-Cadotte, Tanya Mailhot, Patrick Lavoie, Marie-Pierre Gagnon, Véronique Dubé et José Côté. « Traduction, adaptation et évaluation psychométrique préliminaire d’une mesure d’engagement et d’une mesure de charge cognitive en contexte d’apprentissage numérique ». Pédagogie Médicale 20, no 2 (2019) : 79–90. http://dx.doi.org/10.1051/pmed/2020009.

Texte intégral
Résumé :
Contexte : L’apprentissage numérique chez les professionnels de la santé amène des défis comme le manque d’engagement et l’excès de charge cognitive. Toutefois, il n’existe pas de mesures d’engagement et de charge cognitive validées en français. De telles mesures permettraient de considérer ces variables dans le développement de formations numériques et l’évaluation de leurs effets. Buts : (1) Traduire et adapter la User Engagement Scale – Short Form et le Cognitive Load Index en français ; (2) Effectuer une évaluation psychométrique préliminaire des échelles afin d’examiner leurs caractéristiques, les corrélations entre les sous-échelles et la cohérence interne. Méthode : La traduction et l’adaptation ont été réalisées selon Sousa et Rojjanasrirat (2011). Pour l’évaluation des propriétés psychométriques, des étudiants en sciences infirmières ont répondu en ligne à l’Échelle d’engagement de l’utilisateur – Forme abrégée (EEU-FA) et à l’Indice de charge cognitive (IDCC). Les données ont été analysées par des statistiques descriptives, des coefficients de corrélation de Pearson, des coefficients omega (ω) de McDonald et des coefficients alpha (α) de Cronbach. Résultats : Cinquante-sept participants ont complété l’étude. La majorité des distributions étaient normales. Les corrélations entre les sous-échelles étaient entre 0,03 et 0,64 pour l’EEU-FA, et entre −0,12 à 0,41 pour l’IDCC. Les coefficients ω pour l’EEU-FA (0,77 à 0,89) et α pour l’IDCC (0,70 à 0,96) démontrent une bonne cohérence interne. Conclusions : Cette étude a permis de traduire et d’adapter en français des mesures d’engagement et de charge cognitive en contexte numérique. Les échelles font état de bonnes qualités psychométriques préliminaires.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Grohens, M., et R. Bocher. « PSYGÉ – Numérique, le new deal de la psychiatrie en 2035 ? » European Psychiatry 30, S2 (novembre 2015) : S73. http://dx.doi.org/10.1016/j.eurpsy.2015.09.340.

Texte intégral
Résumé :
Aujourd’hui, le numérique est le pétrole du 21e siècle, avec des nappes de chiffres et des gisements de données. L’homme numérisé se nourrit d’un flux d’informations continu. À l’ère du numérique, de nouvelles formes de relations se sont développées. À l’horizon 2035, comment vont évoluer besoins et pratiques ? Que deviendront l’hôpital et les dispositifs de soins psychiatriques ? Hôpitaux et personnels seront-ils complètement virtuels ? Que deviendra la relation entre patients et psychiatres, quelle sera la part de l’humain dans cet environnement numérique ? Le poids des outils numériques pour la transmission des connaissances est aujourd’hui très important : revues professionnelles en ligne, moteurs de recherches (PubMed, PsycINFO, Google Scholar, ClinicalTrials.gov…), sites spécialisés en psychiatrie ou en médecine (Medscape, Psychiatry Advisor, Univadis, Fréquence M, JIM…), réseaux sociaux, massive open online course (MOOC) [1,2]… De ce fait, le volume d’informations, maintenant considérable et mondialisé, nécessite que chacun d’entre nous trouve des stratégies adaptées à ses besoins. Les nouveaux outils devraient faciliter le diagnostic du psychiatre, l’information du patient, la prise en charge personnalisée, une chimiothérapie individualisée. Ils peuvent libérer le psychiatre de nombreuses tâches au profit de la revalorisation de sa dimension relationnelle . Pour l’hôpital, l’innovation sera-t-elle compatible avec les contraintes financières [4,5]. Pour les patients, le développement de l’accès à l’information psychiatrique offre de nouvelles opportunités d’un rapport à soi inédit et décomplexé. Le numérique accélère ce mouvement en donnant en temps réel une information transparente, souvent mesurable, qui peut affecter l’état de celui qui le découvre. À terme, quel sera l’impact du développement d’outils numériques quantifiables (échelles, autoévaluations…), notamment sur des réseaux sociaux, permettant de chiffrer notre santé mentale ?
Styles APA, Harvard, Vancouver, ISO, etc.
19

Semeki Ngabinzeke, Jean, Julie Linchant, Samuel Quevauvillers, Jean-Marie Kahindo Muhongya, Philippe Lejeune et Cédric Vermeulen. « CARTOGRAPHIE DE LA DYNAMIQUE DE TERROIRS VILLAGEOIS À L’AIDE D’UN DRONE DANS LES AIRES PROTÉGÉES DE LA RÉPUBLIQUE DÉMOCRATIQUE DU CONGO ». BOIS & ; FORETS DES TROPIQUES 330, no 330 (21 juillet 2017) : 69. http://dx.doi.org/10.19182/bft2016.330.a31320.

Texte intégral
Résumé :
Les aires protégées de la République démocratique du Congo (RDC) sont mena-cées par diverses pressions anthropiques nécessitant un suivi fréquent et précis. Le mini-drone Falcon équipé d’un appareil photo numérique Sony NEX-7 a été utilisé pour cartographier et suivre la dynamique d’un terroir villageois dans le Domaine de chasse de Mondo Missa à l’est du Parc national de la Garamba, au nord-est de la RDC. Un total de 3 143 photos acquises en avril et juillet 2015, avec une résolution au sol de 8 cm/pixel, a été orthorectifié. La cartographie a porté sur une zone de 114 ha. Les ortho-images ont d’abord été segmentées, les segments étant ensuite classés manuellement par photo-interpré-tation. Des changements notables ont été constatés entre les deux dates. Les zones des forêts et savanes ont perdu 6,5 ha (86,6 à 80,1 ha). Les jachères sont pas-sées de 16,9 à 8,2 ha, les défriches de 4,1 à 10,0 ha. Les cultures saisonnières ont connu une variation allant de 3,2 à 11,8 ha. La taille moyenne des parcelles cultivées est de 0,2 ha (s = 0,14 ha ; n = 50). Enfin, la surface occupée par les arbres isolés a peu évolué (de 1,3 à 1,9 ha), celle des implantations humaines étant constante (1,7 ha). Ces résultats traduisent le fait que l’expansion de l’agriculture itinérante sur brûlis induit une conversion des habi-tats naturels et une modification de la composition végétale. Les aéronefs sans pilote à bord permettent de réaliser une cartographie précise et une surveillance rapide des changements d’affectation des terres à petite échelle dans les aires pro-tégées des forêts et savanes tropicales. Ils offrent donc une solution efficace pour évaluer la déforestation et la dégradation au sein des espaces occupés par les com-munautés locales. Cette évaluation repré-sente un enjeu important dans le proces-sus REDD+ qui envisage de quantifier avec précision ces évolutions.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Cottet, Georges-Henri, Delia Jiroveanu et Bertrand Michaux. « Simulations de grandes échelles : aspects mathématiques et numériques ». ESAIM : Proceedings 11 (2002) : 85–95. http://dx.doi.org/10.1051/proc:2002031.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Dewals, Benjamin J., Sébastien Erpicum, Pierre Archambeau, Sylvain Detrembleur et Michel Pirotton. « Hétérogénéité des échelles spatio-temporelles d'écoulements hydrosédimentaires et modélisation numérique ». La Houille Blanche, no 5 (octobre 2008) : 109–14. http://dx.doi.org/10.1051/lhb:2008064.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Periou, Baptiste, Yasmine Baba Amer et François Jérôme Authier. « Méthode automatisée d’analyse d’images appliquée à la dermatomyosite ». médecine/sciences 35 (novembre 2019) : 36–38. http://dx.doi.org/10.1051/medsci/2019239.

Texte intégral
Résumé :
L’analyse histologique du tissu musculaire est un élément déterminant pour le diagnostic et la compréhension physiopathologique des myopathies. Le développement d’outils numériques et informatiques permet des analyses d’images quantifiées à grande échelle applicable aux biopsies musculaires. L’analyse d’images automatisée permet de déterminer la taille de l’ensemble des myofibres sur un échantillon de muscle et d’évaluer l’atrophie myocytaire. Le codage couleur selon la taille permet de visualiser directement la topographie de l’atrophie myocytaire. Cette approche morphométrique appliquée à la dermatomyosite permettra une meilleure stratification des patients.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Viéville, P., et D. Guitard. « Simulation numérique des liaisons microstructure-anisotropie du matériau bois à ses différentes échelles d'hétérogénéité ». Annales des Sciences Forestières 53, no 6 (1996) : 1137–51. http://dx.doi.org/10.1051/forest:19960608.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
24

Ba, Antoine. « Apport du LiDAR dans le géoréférencement d'images hyperspectrales en vue d'un couplage LiDAR/Hyperspectral ». Revue Française de Photogrammétrie et de Télédétection, no 210 (7 avril 2015) : 5–15. http://dx.doi.org/10.52638/rfpt.2015.269.

Texte intégral
Résumé :
Cette contribution présente deux méthodes de géoréférencement d'images hyperspectrales en se basant sur un jeu de données LiDAR acquises simultanément lors d'une campagne aéroportée en environnement côtier. La première méthode permet de géoréférencer des images VNIR (Visible Near Infra Red) en s'appuyant sur un calcul d'offsets d'angles d'attitude de l'avion basé sur des points de contrôle appariés à un Modèle Numérique d'Élévation (MNE). La seconde méthode a été mise en place dans le but de créer et géoréférencer des images VIR (Visible Infra Red) en fusionnant des images VNIR et SWIR (Short Wave Infra Red). La superposition avec le LiDAR se fait, dans ce cas, par transformation polynomiale de l'image hyperspectrale par saisie de points de contrôle, après géoréférencement. Ces deux méthodes montrent des résultats satisfaisant au vu des échelles d'observation et d'utilisation des données.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Dupont, J., J. Smitz, A. N. Rousseau, A. Mailhot et G. Gangbazo. « Utilisation des outils numériques d'aide à la décision pour la gestion de l'eau ». Revue des sciences de l'eau 11 (12 avril 2005) : 5–18. http://dx.doi.org/10.7202/705326ar.

Texte intégral
Résumé :
Le succès d'une gestion des écosystèmes naturels requiert une connaissance approfondie des différents processus qui interviennent et de leurs échelles de temps et d'espace particulières. Pour cette raison, les décideurs ont besoin d'analyser une vaste gamme de données et d'informations géographiques. Les modèles mathématiques, les systèmes d'informations géographi-ques et les systèmes experts sont capables de produire cette analyse, mais seule une minorité de gestionnaires les utilise actuellement. Cet article identifie quelques unes des raisons à l'origine de l'hésitation des gestionnaires à adopter de tels outils d'aide à la décision pour la gestion des ressources naturelles et propose une structure qui pourrait faciliter leur utilisation pour le processus de prise de décision. Cet exercice est réalisé à l'intérieur du contexte de la gestion intégrée par bassin. Une revue des systèmes d'aide à la décision est également présentée.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Soto Molina, Victor Hugo, et Hugo Delgado Granados. « Estimación de la temperatura del aire en la alta montaña mexicana mediante un modelo de elevación del terreno : caso del volcán Nevado de Toluca (México) / Estimation of the air temperature in the Mexican high mountain environment by means of a model of elevation of the terrain, case of the Nevado de Toluca volcano (Mexico) ». Ería 2, no 2 (19 juillet 2020) : 167–82. http://dx.doi.org/10.17811/er.2.2020.167-182.

Texte intégral
Résumé :
La carencia de estaciones climatológicas por encima de 3.500 metros sobre el nivel del mar (msnm) en México condiciona que los estudios sobre ecosistemas de alta montaña sean realizados con datos de estaciones cercanas, pero sin considerar la diferencia altitudinal de la temperatura debida al relieve y al gradiente vertical. Por tal razón, se realiza un modelo mensual y anual de la distribución espacial de la temperatura del aire en superficie para el volcán Nevado de Toluca (4.680 msnm) y zonas adyacentes, mediante el uso de un Modelo Digital de Elevaciones y el Gradiente Vertical de la Temperatura Troposférica. Este último se ha obtenido a partir de los valores medios de los elementos meteorológicos de cada una de las estaciones situadas alrededor del edificio volcánico y a diferente altitud entre sí. La precisión del modelo ha sido comprobada mediante las observaciones registradas en una estación climatológica instalada al noroeste de la cima del estratovolcán a 4.283 msnm. En el mapa ráster resultante con resolución espacial de 15 metros por pixel se aprecia que los valores estimados son estadísticamente semejantes a aquellos observados in situ. Los resultados en el modelo muestran un aceptable grado de exactitud, y éste puede implementarse fácilmente en cualquier zona a cualquier escala temporal, donde la falta de estaciones climatológicas limite o impida el análisis de la relación de la temperatura con los ecosistemas de alta montaña.L'absence de stations climatologiques au Mexique à plus de 3 500 mètres d'altitude conditionne la réalisation d'études sur les écosystèmes de haute montagne à partir de données provenant de stations à proximité, sans tenir compte de la différence d'altitude en température due au relief et le gradient vertical de celui-ci. Cela a conduit à l'élaboration de ce travail où une modélisation mensuelle et annuelle de la distribution spatiale de la température de l'air au niveau de la surface pour le volcan Nevado de Toluca (4 680 mètres d'altitude) et les zones adjacentes a été réalisée à l'aide d'un modèle altimétrique numérique et du gradient vertical de la température troposphérique; ces derniers ont été obtenus à partir des normales climatiques de chacune des stations situées autour du bâtiment volcanique et à différentes altitudes. La précision du modèle a été vérifiée par des observations enregistrées dans une station météorologique installée au nord-ouest du sommet de la montagne à 4 283 mètres d'altitude. Dans la carte raster résultante avec une résolution spatiale de 15 mètres par pixel, il a été constaté que les valeurs estimées sont statistiquement similaires à celles observées in situ. Les résultats du modèle montrent un degré de précision acceptable, ce qui peut être facilement mis en œuvre dans n'importe quelle zone et à n'importe quelle échelle de temps, lorsque le manque de stations climatologiques limite ou empêche l'analyse de la relation entre la température et les écosystèmes de haute montagne.The lack of climatological stations above 3,500 meters above sea level (m asl) in Mexico, conditions that the studies on high mountain ecosystems are made with data from nearby stations, but without considering the altitudinal difference of the temperature due to the relief and the vertical gradient of it. This led to the elaboration of this work where a monthly and annual modeling of the spatial distribution of air temperature at the surface level for the Nevado de Toluca volcano (4,680 m asl) and adjacent areas was carried out using a Digital Elevation Model and the Vertical Gradient of the Tropospheric Temperature. The latter having been obtained based on the climatic normals of each of the stations located around the volcanic mountain and at different altitudes. The accuracy of the model has been verified by observations recorded in a weather station installed northwest of the mountain top at 4,283 meters above sea level. In the resulting raster map with spatial resolution of 15 meters per pixel, it was found that the estimated values are statistically similar to those observed in situ. The results in the model show an acceptable degree of accuracy, and this can be easily implemented in any area at any time scale, where the lack of climatological stations limits the analysis of the relationship of air temperature with high mountain ecosystems.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Ambroise, B. « Génèse des débits dans les petits bassins versants ruraux en milieu tempéré : 2 - Modélisation systémique et dynamique ». Revue des sciences de l'eau 12, no 1 (12 avril 2005) : 125–53. http://dx.doi.org/10.7202/705346ar.

Texte intégral
Résumé :
La deuxième partie de cette synthèse bibliographique sur la genèse des débits montre comment les connaissances acquises sur le fonctionnement des petits bassins ruraux (cf. Partie 1) peuvent être utilisées pour les modéliser. Elle présente les différents types de modèles hydrologiques (empiriques globaux de type "boîte noire", conceptuels globaux ou semi-spatialisés, physiques spatialisés, physico-conceptuels semi-spatialisés) disponibles pour générer des chroniques événementielles ou continues, et déduit de l'analyse de leurs avantages et limites respectifs certaines recommandations pour leur choix et leur usage. Elle indique ensuite différents problèmes rencontrés dans toute modélisation, et quelques pistes possibles pour les résoudre: incorporation des flux couplés à l'eau dans les modèles hydrologiques, erreurs liées à la structure du modèle (limites et simplifications théoriques, approximations numériques, discrétisations temporelle et spatiale), problèmes métrologiques et méthodologiques limitant la disponibilité des données, hétérogénéités à toutes les échelles limitant l'adéquation des données pour paramétrer les modèles, calage du modèle limitant son aptitude à simuler des scénarios de changement. Elle souligne la nécessité d'une validation multicritère des modèles et d'une estimation de l'incertitude sur les simulations générée par ces diverses sources d'erreurs, ainsi que le besoin d'une meilleure interaction entre expérimentation de terrain et modélisation.
Styles APA, Harvard, Vancouver, ISO, etc.
28

GRONDIN, Frédéric. « Approche multi-échelles au comportement thermo-hygro-mécanique des milieux poreux par simulation numérique dans Symphonie ; application aux problèmes de gel-dégel dans les bétons ». Revue Française de Génie Civil 8, no 1 (janvier 2004) : 114. http://dx.doi.org/10.1080/12795119.2004.9692575.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
29

WITKOWSKA, A., D. JUVÉ et J. BRASSEUR. « Estimation numérique du bruit rayonné par une turbulence homogène et isotrope, à l'aide d'un code de simulation directe et d'un code de simulation des grandes échelles ». Le Journal de Physique IV 04, no C5 (mai 1994) : C5–939—C5–942. http://dx.doi.org/10.1051/jp4:19945205.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Tassin, Jacques. « Jusqu'où planter des arbres ? » BOIS & ; FORETS DES TROPIQUES 338 (11 février 2019) : 3. http://dx.doi.org/10.19182/bft2018.338.a31683.

Texte intégral
Résumé :
Le rôle global des arbres dans la régulation des flux, hydriques ou atmosphériques, en particulier dans la séquestration de carbone, est aujourd’hui scientifiquement acquis et ne saurait plus être remis en cause. Il n’en reste pas moins que la traduction contemporaine de ce constat en vastes programmes de plantations forestières mérite d’être questionnée et évaluée, d’autant que leurs effets futurs sur la fixation de carbone restent eux-mêmes à connaître et quantifier.Plusieurs études publiées au cours de l’année 2018 explorent en particulier les limites de la panacée du reboisement dans les zones de parcours, notamment dans les zones sèches.La toute dernière en date, sous la plume de Diana Davis et Paul Robbins, deux grands noms de la political ecology, montre dans quelle mesure le reboisement obéit encore parfois à des préceptes instaurés durant l’époque coloniale et demeurés vivaces. Par exemple, la notion de« taux de boisement national », création de l’école forestière française de Nancy, et dont la valeur est invariablement fixée à 30-33 %, s’avère une projection de statistiques établies en Europe au début du XIXe siècle. La démonstration était simple : une colonie ne pouvait devenir civilisée que si sa couverture forestière acquérait le même taux que sur le continent considéré comme référence civilisationnelle. Les auteurs montrent combien cette norme statistique, d’abord appliquée aux colonies du Maghreb, s’est diffusée en Asie méridionale, mais aussi en Indonésie, au Viêt Nam, à Madagascar ou au Nigeria.L’application de normes statistiques similaires conduit à établir des plantations forestières dans des sites qui ne sont pas nécessairement appropriés au plan écologique. Il apparaît tout particulièrement que, d’un point de vue écologique, certaines zones géographiques, notamment les espaces de pâturage libre, qui représentent près de la moitié des espaces terrestres, ne gagnent pas forcément à être reboisées. Le pastoralisme extensif en zones sèches apparaît aujourd’hui, aux yeux d’un nombre croissant d’auteurs, comme un mode d’exploitation durable, écologiquement approprié. En recourant à des simulations numériques bioclimatiques, Chris Brierley et ses collègues émettent même l’hypothèse que le pastoralisme, intrinsèquement flexible et ajusté aux variations climatiques, pourrait avoir retardé de plusieurs siècles la désertification de la zone, jadis verte, du Sahara.Cette hypothèse est-elle si farfelue ? Dans certains pays, les espaces pastoraux, sait-on aujourd’hui, stockent globalement autant de carbone que les forêts. C’est notamment le cas de la Californie, comme l’évoquent Pawlok Dass et ses collaborateurs. Or, n’oublient pas de mentionner ces mêmes auteurs, ces terres de parcours représentent un puits de carbone plus résilient que les forêts. Elles souffrent en effet moins durablement des incendies ou des épisodes de sécheresse ou de chaleur extrême. Dans les zones sèches en particulier, la végétation des terres de parcours s’accommode beaucoup mieux que les forêts de la variabilité climatique.Sans aller jusqu’à évoquer une tyrannie de l’arbre, ce qui nous semblerait abusif, l’hybride technico-politique que représente le reboisement à l’échelle gouvernementale gagnerait à être davantage envisagé selon ses deux facettes. Il serait regrettable qu’aux échelles locales comme aux échelles globales l’application forcenée de principes trop exclusivement inhérents aux approches forestières, grandes alliées du contrôle de l’État sur les terres qu’il administre, se traduise par des effets négatifs, tant socio-économiques qu’écologiques.S’agissant tout particulièrement des opérations de reboisement dans les terres de parcours en zone sèche, il semblerait que la controverse ne fasse que commencer.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Wu, Zhiwei, et Xinqiang Li. « Developing Cosmopolitan Communicative Competence Through Online Transnational Encounters ». TESL Canada Journal 36, no 3 (30 décembre 2019) : 110–31. http://dx.doi.org/10.18806/tesl.v36i3.1323.

Texte intégral
Résumé :
This article reports on a study examining the extent to which pedagogical activities can affect students’ cosmopolitan communicative competence (CCC) through online transnational encounters. A total of 58 students from a Hong Kong university and 25 students from an American university were divided into 25 transnational groups. They communicated with each other through Google Docs, sharing culturally rich texts, exchanging views on these texts, and discussing rhetorical and cultural preferences/differences. After analyzing 90,000-word communication transcripts, we found that most of the students demonstrated and developed their cosmopolitan dispositions, skills, and knowledge. Based on these findings, we discuss how the activity contributed to the students’ CCC by addressing four dialectical relations: historicity–modernity, text–context, self–other, and universality–particularity. The participants were challenged to make seemingly culturally irrelevant texts relevant to the transnational peers by moving the (ancient) texts across time scales and sociocultural contexts. The online communication based on the culturally (ir)relevant texts was a valuable site for the learners to enhance understanding about self and other, and examine the intricacies between universal and particular norms, values, and beliefs. The four dialectical relations can function as a set of heuristics for practitioners and researchers to reframe digital English Language Teaching (ELT) practices from the perspective of cosmopolitanism. Cet article est un compte rendu d’une étude menée pour permettre de jeter un regard sur la mesure dans laquelle les activités pédagogiques peuvent affecter la compétence de communication cosmopolite (CCC) des étudiantes et étudiants grâce à des rencontres internationales en ligne. Un groupe d’étudiantes et étudiants dont 58 provenaient d’une université hongkongaise et 25, d’une université américaine, a été subdivisé en 25 groupes transnationaux. Ceux-ci ont communiqué entre eux dans Google Docs pour partager des textes à forte teneur culturelle, échanger des vues sur leurs textes et discuter de préférences/différences en matière de contenu stylistique et de culture. Après avoir analysé des transcriptions d’une longueur globale de 90 000 mots, nous avons été à même de constater que la majorité des étudiantes et étudiants possédaient et développaient des dispositions, des compétences et des connaissances cosmopolites. Sur la base de ces constatations, nous avons cherché à voir ce que l’activité avait apporté à la CCC des étudiantes et étudiants en appliquant quatre relations dialectiques : historicité–modernité, texte–contexte, soi–autre et universalité–particularité. Les participantes et participants ont été mis au défi de prendre des textes en apparence dépourvus de pertinence culturelle et de les rendre pertinents à des pairs transnationaux en transposant les textes (anciens) sur des échelles temporelles et à travers divers contextes socioculturels. La communication en ligne basée sur des textes (non)pertinents a procuré un point de rencontre important pour permettre aux apprenantes et apprenants d’approfondir leur compréhension de soi et de l’autre et de se sensibiliser à la subtilité des rapports qui existent entre les normes, les valeurs et les croyances universelles et particulières. Les quatre relations dialectiques peuvent fonctionner comme un jeu d’heuristiques au niveau de l’enseignement et des recherches en permettant de recadrer les pratiques numériques d’enseignement de l’anglais (ELT) sous l’angle du cosmopolitisme.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Huber, Claire, Fengshan Li, Xijun Lai, Sadri Haouet, Arnaud Durand, Suzanne Butler, James Burnham et al. « Using Pléiades HR data to understand and monitor a dynamic socio-ecological system : China's Poyang lake ». Revue Française de Photogrammétrie et de Télédétection, no 209 (29 janvier 2015) : 125–31. http://dx.doi.org/10.52638/rfpt.2015.206.

Texte intégral
Résumé :
Le lac Poyang, première réserve d'eau douce de Chine, est un lac de moussons présentant de fortes variations de surfaces en eau entre la saison sèche, novembre-mars, et la saison humide juin-septembre. Les surfaces en eau passent ainsi de plus de 3000 km2 en été, à moins de 1000 km2 en hiver, cela correspondant à une variation inter annuelle de la hauteur de l'eau de 8 à 12 mètres. En saison sèche, la dépression du Poyang comprend une cuvette centrale en eau de taille réduite, et des lacs déconnectés entourés de vastes zones enherbées plus ou moins hautes. Lorsque le niveau d'eau augmente, la grande dépression centrale se remplit, puis au fur et à mesure du remplissage, comme une marée montante, l'eau arrive au niveau des lacs, les submerge et l'ensemble forme alors une petite mer intérieure d'eau douce. Cette dynamique et cette amplitude de variations ont de nombreuses implications en termes de ressources en eau, de santé publique (bilharziose), et mais aussi de richesse de la biodiversité.Le lac Poyang est un des milieux les plus riches et les plus importants en termes de biodiversité en Asie du Sud Est. Il s'agit d'une zone d'hivernage essentielle pour toute l'avifaune de l'Asie et de Sibérie. Plus de trois cents espèces d'oiseaux dépendent de cet habitat unique dont plus d'une douzaine d'espèces considérées en danger. Les plus emblématiques sont les grues de Sibérie et les cigognes blanches orientales dont la quasi-totalité, 98% de la population mondiale (moins de 3000 individus) viennent hiverner au Poyang. Cette de grande diversité d'oiseaux d'eau migrateurs est une conséquence directe de l'hydrologie complexe du lac Poyang.La forte variabilité intra et interannuelle du remplissage du Poyang, est un phénomène difficile à qualifier, c'est pourquoi un suivi temporel à relative haute fréquence est nécessaire. Dans le cadre de la RTU Pléiades HR, des acquisitions sur une base mensuelle ont été programmées au cours de l'année 2013 couvrant la partie la plus riche et sensible de la Reserve Naturelle du lac Poyang (PLNR). L'exploitation des données a porté sur plusieurs axes. Tout d'abord la caractérisation, à une échelle fine, des trajets de l'eau et de la dynamique de remplissage et de vidange des lacs, mettant en évidence un remplissage plutôt tardif et peu important au regard des observations réalisées les 12 dernières années, et surtout une vidange très précoce (fin juillet, entrainant par exemple la vidange totale du Bang Hu, principal site d'accueil des grues sibériennes). Les travaux ont également portés sur l'autre principale composant du milieu naturel, la végétation et sa dynamique inverse de l'eau. A partir des relevés terrain, le long de quatorze de transects, des indices de végétation ont été exploités afin de réaliser la cartographie de la végétation de ce secteur clé du lac Poyang. Les travaux ont également portes portés sur l'impact des activités anthropiques sur le milieu avec deux atteintes fortes, la mise en place de zones de cultures au sein du Parc national, et l'exploitation du lac Poyang comme carrière de sable se traduisant par un fort retrait des berges et un creusement des lits mineurs. Enfin, l'exploitation des données Pléiades HR, associées à des données CSK a permis de lever la première carte des filets de pêche au sein de la Reserve naturelle. De plus, deux triplets stéréo ont été acquis lors de périodes de basses hautes en en mars et septembre 2013, permettant la génération de modèles numériques de surfaces très précis et très détaillés.Les résultats obtenus suite à l'exploitation des images Pléiades HR, transmis à l'administration en charge de la gestion du Parc et à une ONG, l'International Crane Fondation, montrent l'apport des données Pléiades HR pour le suivi environnemental et aussi tout l'intérêt de séries temporelles très haute résolution pour la connaissance, et par la même, la protection des milieux.
Styles APA, Harvard, Vancouver, ISO, etc.
33

GUYOMARD, H., B. COUDURIER et P. HERPIN. « Avant-propos ». INRAE Productions Animales 22, no 3 (17 avril 2009) : 147–50. http://dx.doi.org/10.20870/productions-animales.2009.22.3.3341.

Texte intégral
Résumé :
L’Agriculture Biologique (AB) se présente comme un mode de production agricole spécifique basé sur le respect d’un certain nombre de principes et de pratiques visant à réduire au maximum les impacts négatifs sur l’environnement. Elle est soumise à des interdictions et/ou des obligations de moyens, par exemple l’interdiction des Organismes Génétiquement Modifiés (OGM), des engrais de synthèse et des pesticides ou l’obligation de rotations pluriannuelles. Dans le cas de l’élevage, les critères portent sur l’origine des animaux, les conditions de logement et d’accès aux parcours, l’alimentation ainsi que la prévention et le traitement des maladies. Ainsi, la prévention des maladies est principalement basée sur l’utilisation de techniques d’élevage stimulant les défenses naturelles des animaux et, en cas de problème sanitaire, le recours à l’homéopathie ou à la phytothérapie ; l’emploi d’autres médicaments vétérinaires n’est pas exclu à condition de respecter des conditions réglementaires strictes1. L’AB s’inscrit dans des filières d’approvisionnement et de commercialisation incluant la transformation et la préparation des aliments, la distribution de gros et/ou de détail et le consommateur final. Dans tous les pays, agriculteurs, conditionneurs et importateurs doivent se conformer à des réglementations pour associer à leurs produits un étiquetage attestant de leur nature biologique. Les produits issus de l’AB sont certifiés et des mécanismes d’inspection assurent le respect des règlements. L’AB mondiale est aujourd’hui encore une activité marginale au regard des terres consacrées (moins de 2%), du nombre d’agriculteurs engagés ou des volumes concernés. Il s’agit toutefois d’une activité en forte croissance avec, par exemple, un triplement des surfaces mondiales dédiées entre 1999 et aujourd’hui. Le marché mondial des produits issus de l’AB était estimé à 25 milliards d’euros en 2006, soit deux fois plus qu’en 2000 (données IFOAM). La consommation est très fortement concentrée, à plus de 95% en Amérique du Nord d’une part, et en Europe de l’Ouest où les principaux marchés sont l’Allemagne, l’Italie, la France et le Royaume-Uni, d’autre part. Sur ces deux continents, les importations sont nécessaires pour pallier le déficit de l’offre domestique au regard de la demande intérieure. Ceci est particulièrement vrai en France. Selon le ministère en charge de l’agriculture (2009), «la demande [française] de produits issus de l’AB croît de 10% par an depuis 1999. Or, l’offre [nationale] de produits issus de l’AB est aujourd’hui insuffisante pour satisfaire cette demande croissante. Les surfaces des 11 970 exploitations agricoles françaises en AB ne représentent que 2% de la surface agricole. Par défaut d’organisation entre les producteurs et à cause de l’éparpillement des productions, une part significative des produits bio n’est pas valorisée». Et simultanément, 25% environ de la consommation française de produits bio est satisfaite par des importations. Cette situation a conduit le Ministre en charge de l’agriculture à proposer, dans le cadre du Grenelle de l’environnement, un plan visant le triplement à l’horizon 2012 des surfaces françaises en AB (6% de la surface agricole utile en 2012). Pour atteindre cet objectif, le plan inclut un soutien budgétaire à la structuration de la filière bio (sous la forme d’un fonds de structuration doté de 15 millions d’euros sur cinq ans), la mobilisation de la recherche (notamment sous la forme de crédits «recherche»), un soutien accru aux exploitations converties en AB (via le déplafonnement des 7 600 €/an/unité des aides agro-environnementales pour les exploitations en conversion vers l’AB et une augmentation de l’enveloppe dédiée, ainsi que la reconduction du crédit d’impôt en 2009, celui-ci étant par ailleurs augmenté) et enfin, l’obligation dès 2012 faite à la restauration collective de proposer dans ses menus 20% de produits issus de l’AB. Enfin, dans le cadre du bilan de santé de la Politique Agricole Commune (PAC) du 23 février 2009, une aide spécifique aux exploitations en AB d’un montant d’un peu moins de 40 millions d’euros a été adoptée. Le plan français en faveur de l’AB, popularisé sous le libellé «AB : objectif 2012», vise donc à développer la production domestique de produits issus de l’AB via la fixation d’un objectif quantitatif en termes de surfaces dédiées en jouant simultanément sur la demande (via une contrainte d’incorporation de produits issus de l’AB dans la restauration collective) et l’offre (via, de façon générale, un soutien augmenté aux exploitations en conversion vers l’AB et déjà converties à l’AB). Dans ce contexte, le comité éditorial de la revue Inra Productions Animales et la direction de l’Inra ont souhaité apporter un éclairage scientifique sur les acquis, les verrous et les perspectives en matière d’élevage AB. Ce numéro a été coordonné par J.M. Perez avec l’aide de nombreux relecteurs : que tous soient ici remerciés. Après une présentation du cahier des charges français et de la réglementation communautaire (Leroux et al), le numéro se décline en trois parties : une série d’articles sur différentes filières animales concernées (avicole, porcine, bovine allaitante, ovine allaitante), un focus sur deux approches à l’échelle des systèmes d’élevage (ovin allaitant et bovin laitier), et enfin des articles centrés sur les problèmes les plus aigus rencontrés dans le domaine de la gestion sanitaire et de la maitrise de la reproduction. L’article conclusif de Bellon et al fait le point sur les principales questions de recherche qui demeurent. En aviculture (Guémené et al), à l’exception de l’œuf, la production bio reste marginale, mais les filières sont bien organisées. Cette situation résulte d’une relative synergie avec les filières label rouge, avec lesquelles elles partagent plusieurs caractéristiques (types génétiques, longue durée d’élevage, parcours). Des difficultés multiples subsistent néanmoins. La production bio est pénalisée par le manque de poussins AB, des difficultés de maintien de l’état environnemental et sanitaire des parcours, la rareté de l’aliment bio et la difficulté d’assurer l’équilibre en acides aminés des rations (pas d’acides aminés de synthèse), élément susceptible d’expliquer la surmortalité constatée en pondeuse (liée à des problèmes comportementaux). Par suite, les performances sont inférieures à celles de l’élevage conventionnel (augmentation de la durée d’élevage et de l’indice de conversion) et l’impact environnemental, bien qu’amélioré quand il est rapporté à l’hectare, est moins favorable quand il est mesuré par unité produite, à l’exception notable de l’utilisation de pesticides. Prunier et al aboutissent aux mêmes conclusions dans le cas de la production de porcs AB. Relativement au conventionnel, les contraintes sont fortes sur le plan alimentaire (rareté de l’aliment AB, problème d’équilibre en acides aminés des rations) et de la conduite d’élevage (interdiction ou limitation des pratiques de convenance, âge des animaux au sevrage de 40 jours, difficultés de synchronisation des chaleurs et des mises bas, limitation des traitements vétérinaires). Ces contraintes et la grande diversité des élevages de porcs AB se traduisent par une forte variabilité des performances en termes de survie, reproduction, composition corporelle ou qualité des produits : autant de critères qu’il conviendra de mieux maîtriser à l’avenir pour assurer la pérennité de l’élevage porcin AB. Les performances zootechniques et économiques de l’élevage bovin allaitant bio sont abordées dans l’article de Veysset et al à partir d’un échantillon limité d’exploitations situées en zones défavorisées. Les caractéristiques des unités AB diffèrent peu de celles de leurs voisines en élevage conventionnel ; avec un chargement à l’hectare plus faible mais une plus grande autonomie alimentaire, les résultats techniques des élevages AB sont proches de ceux des élevages conventionnels et ce, en dépit d’une moindre production de viande vive par unité de bétail, en raison d’un cycle de production en moyenne plus long. Sur le plan économique, les charges plus faibles (pas de traitements antiparasitaires, pas de vaccinations systématiques) ne suffisent pas à compenser un moindre produit à l’hectare. Un verrou majeur est le déficit de gestion collective de la filière verticale (absence totale de débouché en AB pour les animaux maigres, en particulier) qui se traduit par un problème aigu de sous-valorisation puisque dans l’échantillon enquêté 71% des animaux sont vendus sans signe de qualité : nul doute qu’il s’agit là d’une priorité d’action. En élevage ovin (Benoit et Laignel), également sur la base d’un échantillon malheureusement restreint, les différences de performances techniques et économiques des élevages conventionnels versus bio varient sensiblement selon la localisation géographique, plaine ou montagne ; il est de ce fait difficile (et dangereux) de dégager des enseignements généraux valables pour l’élevage bio dans son ensemble. L’étude détaillée des adaptations des systèmes d’élevage aux potentialités agronomiques réalisée sur quatre fermes expérimentales montre néanmoins le rôle clé de la variable «autonomie alimentaire». Par suite, la situation économique des élevages ovins bio est plus difficile en zone de montagne où l’autonomie alimentaire, voire fourragère, est moindre (l’achat des aliments non produits sur l’exploitation représente 41% du prix de vente des agneaux dans l’échantillon enquêté). In fine, cela suggère que la variabilité des performances de l’élevage ovin bio, de plaine et de montagne, dépend plus du coût de l’aliment et de la valorisation des agneaux que de la productivité numérique. L’article de Benoit et al porte également sur l’élevage ovin biologique, plus précisément la comparaison de deux systèmes ovins allaitants AB différant par le rythme de reproduction des animaux. Cela montre que les performances de l’élevage ovin AB ne s’améliorent pas quand le rythme de reproduction est accéléré, le faible avantage de productivité numérique ne permettant pas de compenser l’augmentation des consommations d’aliments concentrés et la moindre qualité des agneaux. Au final, cela illustre la plus grande difficulté à piloter le système AB le plus intensif. L’article de Coquil et al relève aussi d’une approche systémique appliquée cette fois à l’élevage bovin laitier. Il porte sur l’analyse d’un dispositif original de polyculture-élevage mis en place à la Station Inra de Mirecourt reposant sur la valorisation maximale des ressources du milieu naturel et accordant une importance première à l’autonomie en paille et à la culture des légumineuses (protéagineux, luzerne). Le cheptel valorise les produits végétaux (prairies et cultures) et assure la fertilisation des parcelles en retour. L’autonomie alimentaire étant privilégiée, les effectifs animaux sont une variable d’ajustement, situation plutôt inhabituelle par comparaison avec des élevages laitiers conventionnels qui cherchent en premier lieu à maintenir les cheptels et les capacités de production animale. Les premiers retours d’expérience suggèrent une révision du dispositif en maximisant les synergies et les complémentarités plutôt que de considérer que l’une des deux activités, la culture ou l’élevage, est au service de l’autre. Cabaret et al proposent un éclairage sur les problèmes sanitaires en élevage biologique. Sur la base, d’une part, d’une analyse des déclaratifs des acteurs de l’élevage, et, d’autre part, d’évaluations aussi objectivées que possible, les chercheurs montrent qu’il n’y aurait pas de différence notable entre l’AB et le conventionnel sur le plan des maladies infectieuses et parasitaires (nature, fréquence). La gestion de la santé des cheptels AB repose davantage sur l’éleveur que sur les prescripteurs externes auxquels il est moins fait appel, et sur une planification sanitaire préalable privilégiant la prévention et une réflexion de plus long terme sur la santé globale du troupeau, l’ensemble des maladies qui peuvent l’affecter, etc. La planification n’est pas uniquement technique. Elle requiert aussi l’adhésion des éleveurs. De fait, l’enquête analysée dans cet article relative aux élevages ovins allaitants met en lumière l’importance de ces aspects individuels et culturels sur la gestion de la santé en élevage biologique. Les alternatives aux traitements anthelminthiques en élevage ruminant AB font l’objet de nombreux travaux (Hoste et al). Différents moyens de lutte contre les parasitoses sont mis en œuvre : gestion du pâturage de façon à limiter le parasitisme helminthique (rotations, mise au repos, assainissement), augmentation de la résistance de l’hôte (génétique, nutrition, vaccination), et traitements alternatifs des animaux infectés (homéopathie, phytothérapie, aromathérapie). Les protocoles d’évaluation objective de ces traitements alternatifs posent des problèmes méthodologiques non totalement résolus à ce jour. Mais traiter autrement, c’est aussi réduire le nombre de traitements anthelminthiques de synthèse via un emploi plus ciblé (saison, catégories d’animaux). Au total, de par la contrainte du cahier des charges à respecter, l’élevage biologique a recours à l’ensemble des moyens de lutte contre les maladies parasitaires. Dans le cadre de cette approche intégrée de la santé animale, l’élevage biologique peut jouer un rôle de démonstrateur pour l’ensemble des systèmes d’élevage concernés par le problème de la résistance et des alternatives aux anthelminthiques utilisés à grande échelle. Même si la réglementation n’impose pas de conduites de reproduction spécifiques en élevage AB, elle contraint fortement les pratiques, notamment l’utilisation des traitements hormonaux. L’impact de ces contraintes est particulièrement fort en élevage de petits ruminants (où le recours à des hormones de synthèse permet l’induction et la synchronisation des chaleurs et des ovulations) et en production porcine (où la synchronisation des chaleurs et des mises bas est très pratiquée). Néanmoins, Pellicer-Rubio et al rappellent que des solutions utilisées en élevage conventionnel peuvent également être mobilisées en élevage biologique, l’effet mâle et les traitements photopériodiques naturels notamment, et ce dans toutes les filières, en particulier celles fortement consommatrices de traitements hormonaux. De façon générale, les marges de progrès sont encore importantes et les solutions seront inévitablement multiformes, combinant diverses techniques selon une approche intégrée. Ici aussi, l’AB veut être valeur d’exemple, en particulier dans la perspective d’une possible interdiction des hormones exogènes en productions animales. L’article de Bellon et al conclut le numéro. Il met l’accent sur quatre thématiques prioritaires de recherche à développer, à savoir 1) la conception de systèmes d’élevage AB, 2) l’évaluation de l’état sanitaire des troupeaux et le développement d’outils thérapeutiques alternatifs, 3) la maîtrise de la qualité des produits et 4) l’étude des interactions entre élevage AB et environnement. A ces quatre orientations, on ajoutera la nécessité de recherches sur l’organisation des filières, la distribution, les politiques publiques, etc. dans la perspective de différenciation et de valorisation par le consommateur des produits issus de l’élevage biologique. Dans le droit fil de ces conclusions, l’Inra a lancé, ce printemps, un nouvel appel à projets de recherche sur l’AB dans le cadre du programme dit AgriBio3 (programme qui prend la suite de deux premiers programmes également ciblés sur l’AB). Les deux grandes thématiques privilégiées sont, d’une part, les performances techniques de l’AB (évaluation, amélioration, conséquences sur les pratiques), et, d’autre part, le développement économique de l’AB (caractérisation de la demande, ajustement entre l’offre et la demande, stratégie des acteurs et politiques publiques). Ce programme, associé à d’autres initiatives nationales (appel à projets d’innovation et de partenariat CASDAR du ministère en charge de l’agriculture) et européennes (programme européen CORE Organic en cours de montage, suite à un premier programme éponyme), devrait permettre, du moins nous l’espérons, de répondre aux défis de l’AB, plus spécifiquement ici à ceux de l’élevage biologique. Un enjeu important est aussi que les innovations qui émergeront de ces futurs programmes, tout comme des travaux pionniers décrits dans ce numéro, constituent une source d’inspiration pour faire évoluer et asseoirla durabilité d’autres formes d’élevage.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Hanafi, Aicha, Hechmi Khlifi et Taieb Lili. « The Effect of Compressibility on Turbulent Shear Flow : Direct Numerical Simulation Study ». Journal of Fluids Engineering 135, no 10 (23 juillet 2013). http://dx.doi.org/10.1115/1.4024879.

Texte intégral
Résumé :
The study of the phenomenon of compressibility for modeling to second order has been made by several authors, and they concluded that models of the pressure-strain are not able to predict the structural evolution of the Reynolds stress. In particular studies and Simone Sarkar et al., a wide range of initial values of the parameters of the problem are covered. The observation of Sarkar was confirmed by the study of Simone et al. (1997,“The Effect of Compressibility on Turbulent Shear Flow: A Rapid Distortion Theory and Direct Numerical Simulation Study,” J. Fluid Mech., 330, p. 307;“Etude Théorique et Simulation Numérique de la Turbulence Compressible en Présence de Cisaillement où de Variation de Volume à Grande Échelle” thése, École Centrale de Lyon, France). We will then use the data provided by the direct simulations of Simone to discuss the implications for modeling to second order. The performance of different variants of the modeling results will be compared with DNS results.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Larue, Louis. « Focus 26 - janvier 2021 ». Regards économiques, 28 janvier 2021. http://dx.doi.org/10.14428/regardseco/2021.01.28.01.

Texte intégral
Résumé :
Les crypto-monnaies, comme le Bitcoin ou Ethereum, animent le débat public depuis au moins 10 ans. A leur avènement, les banques centrales se sont montrées pour le moins frileuses. Ainsi, dans un rapport publié en 2013, la Banque centrale européenne (BCE) avertissait que la nature non réglementée de ces monnaies pourrait exposer leurs utilisateurs à des risques élevés. Plusieurs années plus tard, les banquiers centraux reconnaissent maintenant leur potentiel. La Banque d'Angleterre, la Banque centrale suédoise et la BCE étudient toutes intensément la possibilité d'émettre leur propre monnaie numérique (ci-après dénommée «monnaie numérique de banque centrale» ou «central bank digital currencies» en anglais). Cet enthousiasme est-il justifié ? Les banques centrales devraient-elles créer leur propre monnaie numérique ? Ce focus de Regards économiques présente d’abord brièvement ce que sont ces monnaies. Il expose ensuite les raisons justifiant leur éventuelle introduction et détaille finalement les risques qu’elles pourraient poser. Notons tout d’abord que ces monnaies ne sont pas une copie «publique» des crypto-monnaies privées. Les banques centrales rejettent en effet la nature décentralisée et l’absence de gouvernance unifiée du Bitcoin et des crypto-monnaies similaires. Par ailleurs, la nature «numérique» de ces nouvelles monnaies n’est pas vraiment une innovation. La majorité de la masse monétaire prend déjà une forme numérique. A côté de la monnaie «physique» (pièces et billets), la plus grande partie de notre monnaie est constituée de dépôts bancaires privés et de dépôts à la banque centrale (la monnaie de réserve). Pour l'instant, seules les banques et certaines institutions financières ont accès aux réserves de la banque centrale. La véritable innovation au cœur des monnaies numériques de banque centrale serait de donner aux particuliers et aux entreprises la possibilité de détenir de l'argent sous forme de dépôts directement auprès de la banque centrale. En somme, les monnaies numériques de banques centrales, malgré leur nom, ne formeraient pas une nouvelle monnaie, mais plutôt un nouveau moyen de payement, labellisé en euros, et de valeur équivalente à l’euro. Pour quelles raisons une banque centrale pourrait-elle donner cette opportunité à toutes et tous ? Une première raison est liée à la dépendance des banques centrales vis-à-vis du système financier. Le système financier moderne est basé sur une certaine division du travail entre les banques commerciales qui sont chargées de prêter de l'argent au secteur productif, et les banques centrales qui supervisent les premières et tentent d'influencer l'économie par des interventions sur les marchés financiers. Schématiquement, ces dernières tentent de peser sur le comportement des premières de deux manières : soit en modifiant le taux d’intérêt auquel les acteurs financiers peuvent leur emprunter de l’argent, soit via l’achat ou la vente d’actifs financiers. Cela signifie que les banques centrales n'ont qu'une influence indirecte sur l'économie productive et qu'elles dépendent des banques commerciales pour canaliser la politique monétaire. Lors de la crise financière de 2007-2008, par exemple, la dépendance des banques centrales par rapport aux banques commerciales a conduit les premières à injecter des milliards d'euros et de dollars sur les marchés financiers, dans l'espoir que les banques commerciales utilisent cet argent pour des investissements productifs. Or, l’efficacité de ces politiques est loin d’être démontrée. D’aucuns s’effraient que cette situation ne génère des bulles spéculatives et ne privilégie indûment les banques commerciales, sans que ces dernières ne financent l’économie productive à la hauteur des espérances des banquiers centraux. La mise en œuvre de monnaies numériques de banque centrale à grande échelle pourrait modifier radicalement cette situation. Cela offrirait un système de paiement alternatif qui ne serait pas géré par le secteur bancaire commercial. Les citoyens pourraient également choisir de placer leurs économies sur un compte à la banque centrale qui, par définition, serait plus sûr qu’un compte dans une banque commerciale. En outre, l'introduction de ces monnaies réduirait la dépendance des banques centrales vis-à-vis des banques commerciales en permettant aux banques centrales de créditer directement les comptes des citoyens ou des entreprises, sans nécessairement recourir à des intermédiaires bancaires. Par conséquent, l'introduction de ces monnaies pourrait rendre la politique monétaire plus directe et plus simple. A première vue, donc, on pourrait se réjouir de la possibilité de limiter la dépendance des banques centrales par rapport aux banques commerciales. Il convient cependant de considérer plusieurs problèmes importants. Premièrement, si les particuliers et les entreprises décident de considérer leur banque centrale comme leur fournisseur de services bancaires, ne risque-t-on pas de rendre les banques commerciales obsolètes et superflues ? Dans ce cas extrême, ni les citoyens ni les banques centrales n'auraient plus besoin d'intermédiaires pour l’octroi de crédits et l’accueil de dépôts. Les banques commerciales garderaient sans doute le rôle d’intermédiaire sur les marchés financiers, mais manqueraient d'une source de financement appropriée (les dépôts des clients) et perdraient une de leurs principales activités (les prêts). La taille des marchés financiers pourrait se réduire considérablement. Cela pourrait fragiliser la santé économique des banques commerciales et celle des marchés financiers dans leur ensemble. Un deuxième problème concerne l’équilibre des pouvoirs entre gouvernements, banques centrales et banques commerciales. À la suite de la crise financière, les banques centrales ont déjà acquis d'énormes pouvoirs. La BCE a par exemple participé à la Troïka en Grèce et dicté des réformes économiques structurelles dans ce pays. La Réserve fédérale américaine (la Fed), la BCE et la Banque d'Angleterre ont également obtenu des pouvoirs supplémentaires de supervision du système bancaire. Et elles sont toutes intervenues massivement sur les marchés financiers, par l'achat massif d'obligations et de titres. L’introduction de monnaies numériques de banque centrale renforcerait ces tendances et accroîtrait le poids des banques centrales sur les marchés financiers, en leur donnant un accès direct aux comptes des citoyens et des entreprises, et en leur permettant de contourner les acteurs financiers commerciaux. Ce déséquilibre de pouvoir pourrait encore accroître le déficit démocratique dont souffrent les banques centrales. Par ailleurs, les banques centrales, si elles sont amenées à fournir des services bancaires et à alimenter l'économie productive par le crédit, pourraient être entraînées dans d’importants conflits d'intérêts. En effet, ces dernières deviendraient leur propre régulateur. En conclusion, il est certain que les monnaies numériques de banque centrale suscitent un débat intéressant sur le rôle des banques centrales dans le système financier. D’une part, elles pourraient constituer une piste de solution à la dépendance des banques centrales vis-à-vis des marchés financiers. Cependant, elles pourraient également conduire à accroître démesurément les pouvoirs des banques centrales et à fragiliser les marchés financiers en rendant le financement des banques commerciales plus complexe. L’enjeu, en définitive, est le partage du pouvoir financier entre banques commerciales et banques centrales – un débat qui dépasse de loin l’objectif de ce focus, et qu’il ne prétend pas trancher. Pour aller plus loin : Larue, L., Fontan, C. et Sandberg, J. (2020). The promises and perils of Central Bank Digital Currencies. Revue de la Régulation, Numéro 28.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Tomta, K., T. Mouzou, P. Egbohou et M. Chobli. « Echelle visuelle analogique versus échelle numérique dans l’évaluation de la douleur chez l’adulte en salle de surveillance post interventionnelle, au CHU Tokoin de Lomé (Togo) ». Journal de la Recherche Scientifique de l'Universite de Lome 11, no 2 (26 juillet 2010). http://dx.doi.org/10.4314/jrsul.v11i2.57032.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

« Contre la COVID-19, utiliser à grande échelle les outils numériques ». Bulletin de l'Académie Nationale de Médecine 204, no 7 (juillet 2020) : 698–99. http://dx.doi.org/10.1016/j.banm.2020.05.067.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
38

Dobrica, Mihai B., et Michel Fillon. « Analyse numérique du régime THD dans un patin échelon ». European Journal of Computational Mechanics, 14 septembre 2007, 683–701. http://dx.doi.org/10.13052/remn.16.683-701.

Texte intégral
Résumé :
A lack of thermohydrodynamic (THD) models adapted to discontinuous fluid film geometries can be noted in the lubrication-related literature. The finite differences method, largely used in THD analysis, cannot be easily applied to discontinuous flow domains. This article proposes two finite volumes based models, suitable for discontinuous domains. The first model, based on Reynolds generalized equation, lacks in accuracy near the discontinuity line, but gains in computing speed. The second model, based on Navier-Stokes equations, is more accurate but also significantly more demanding in terms of computing requirements. The two models are applied and compared on the simple geometry of a bi-dimensional Rayleigh step bearing. Different configurations are analyzed, allowing the validation of the Reynolds model for most of the cases encountered in fluid film lubrication.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Svidzinski, João Estivalet, et Alain Bonardi. « L'analyse orientée objet-opératoire de “Círculos Ceifados” de Rodolfo Caesar ». Musica Theorica 1, no 2 (26 avril 2017). http://dx.doi.org/10.52930/mt.v1i2.20.

Texte intégral
Résumé :
Ci?rculos Ceifados, œuvre acousmatique composée en 1997, repre?sente la pleine maturite? du compositeur bre?silien Rodolfo Caesar. Des méthodes re?currentes de la production du compositeur - comme la bioacoustique, le panning, la synthe?se granulaire et la synthe?se FM – y sont mises en œuvre judicieusement. Dix ans après la composition de cette pièce, Caesar fait paraître un livre éponyme contenant des informations sur la composition de cette œuvre. Des curiosités et des anecdotes sont mélangées avec des précisons techniques, y compris les codes Csounds originaux utilisés pour la génération des matériaux de Ci?rculos Ceifados. L'analyse des œuvres numériques ayant comme source le code original est le fondement d'une approche méthodologique que nous appelons analyse orientée objet-opératoire. Le maniement de cette approche consiste à interpréter le code (et les informations bibliographiques) par un réseau d'objets opératoires, révélant ainsi les propriétés numériques du faire musical. Dans cet article, nous allons analyser la pièce Ci?rculos Ceifados en mettant en évidence les opérations et les objets numériques composés. Les articulations selon les différentes échelles temporelles révèlent une maîtrise d'un savoir-faire mûr et solide du compositeur.
Styles APA, Harvard, Vancouver, ISO, etc.
40

BICHAIN, Jean-Michel, Xavier CUCHERAT, Hervé BRULÉ, Thibaut DURR, Jean GUHRING, Gérard HOMMAY, Julien RYELANDT et Kevin UMBRECHT. « Liste de référence fonctionnelle et annotée des Mollusques continentaux (Mollusca : Gastropoda & ; Bivalvia) du Grand-Est (France) ». Naturae, no 11 (19 décembre 2019). http://dx.doi.org/10.5852/naturae2019a11.

Texte intégral
Résumé :
Les plateformes collaboratives d’observation de la biodiversité, couplées à des référentiels taxonomiques numériques, permettent désormais de générer automatiquement des listes d’espèces et/ou atlas de répartition à diverses échelles tant temporelles que géographiques. Nous questionnons ici la fiabilité d’une telle liste d’espèces en prenant comme point de départ la pré-liste taxonomique des Mollusques de la région du Grand-Est générée à partir des données d’occurrences disponibles dans le Système d’Information sur la Nature et les Paysages (SINP) et du réferentiel associé TAXREF. Nous montrons que le taux de recouvrement entre cette pré-liste qui cite 233 taxons terminaux et celle élaborée par les auteurs de cet article est de l’ordre de 90 %. Les différences sont liées à 60,7 % à de fausses-absences, à 32,1 % à de fausses-présences et à 7,2 % à des traitements taxonomiques différents. Au final, nous documentons la présence de 241 taxons terminaux dont 156 Gastéropodes terrestres, 46 Gastéropodes aquatiques et 39 Bivalves. Nous montrons que plus de 40 % des espèces de Mollusque nécessitent une approche conjointe morpho-anatomique pour une identification fiable. C’est pourquoi, cette liste de référence dite fonctionnelle a mis l’accent, pour certains taxons, sur les critères spécifiques estimés comme stables et sur le niveau de difficulté lors de l’identification, et ce, afin de tenter d’homogénéiser l’implémentation des données d’occurrence et/ou de leur évaluation a posteriori. Nous recommandons que les données primaires enregistrées dans les bases de données collaboratives fassent référence à des spécimens déposés dans des collections publiques, aux caractères spécifiques observés et par la transmission de photographie(s) de bonnes qualités.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Parks, Lisa. « Earth Observation and Signal Territories : Studying U.S. Broadcast Infrastructure through Historical Network Maps, Google Earth, and Fieldwork ». Canadian Journal of Communication 38, no 3 (14 septembre 2013). http://dx.doi.org/10.22230/cjc.2013v38n3a2736.

Texte intégral
Résumé :
This article engages with three different modes of Earth observation—historical network maps, Google Earth interfaces, and fieldwork—to develop the concept of “signal territories” and elucidate a critical approach for studying U.S. broadcast infrastructure. This approach: 1) highlights physical infrastructures—technological hardware and processes in dispersed geographic locations—as important sites for historical and critical analysis in media and communication studies; 2) explores multiple modes of infrastructure representation—ranging from cartography to phenomenology, from hand-drawn maps to digital interfaces, from circuit diagrams to site visits; and 3) foregrounds the biotechnical aspects and resource requirements of broadcast infrastructures, probing their dynamic operations and complex materialisms. Engaging with what Richard Maxwell and Toby Miller call a “materialist ecology” of media, the article explores what is at stake in understanding media infrastructures from up close and afar.Cet article examine trois manières différentes d’observer la Terre (les cartes de réseau historiques, les interfaces Google Earth et les enquêtes sur le terrain) dans le but de développer le concept de « territoires délimités par un signal » et d’élucider une approche critique pour étudier l’infrastructure de la radiodiffusion américaine. Cette approche : 1) souligne les infrastructures physiques (les matériels et processus technologiques dans des lieux géographiques dispersés) comme étant des sites importants pour l’analyse historique et critique en études des médias et de la communication; 2) explore plusieurs sortes de représentation des infrastructures—de la cartographie à la phénoménologie, des cartes géographiques dessinées à la main aux interfaces numériques, de schémas de circuits aux visites sur place; et 3) met en avant les aspects biotechniques et les besoins en ressources des infrastructures de radiodiffusion, examinant leurs opérations dynamiques et leurs matérialismes complexes. Cet article a recours à ce que Richard Maxwell et Toby Miller appellent une « écologie matérialiste » des médias afin d’explorer ce qui est en jeu dans la compréhension à petite et à grande échelle des infrastructures médiatiques.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Lotherington, Heather, et Natalia Sinitskaya Ronda. « Gaming geography : Educational games and literacy development in the Grade 4 classroom ». Canadian Journal of Learning and Technology / La revue canadienne de l’apprentissage et de la technologie 35, no 3 (21 juillet 2010). http://dx.doi.org/10.21432/t2688n.

Texte intégral
Résumé :
This paper outlines a case study conducted in two public schools in the greater Toronto area as a complementary component of a multisite experimental study exploring educational game development as a learning activity for motivating and engaging students in curriculum-related literacy activities (Owston et al., 2007). Researchers studied children creating and playing four online board games based on grade 4 geography content, viz., Tic-tac-toe, Trivial Pursuit, Snakes and Ladders, and Mother Goose. The schools shared similar positive orientations to technologically focused learning and good technological resources, but they had different institutional histories of implementing computers in curricular learning. Technological equipment was approached, accessed and utilized quite differently in each class, affecting pedagogical practices and learning experiences. Though improvements to traditional literacy learning were found to be limited to improved logical sentence structure (Owston et al., 2007), game development did allow students to build digital literacy skills, including computer literacy and typing skills. Moreover, the project enabled participating teachers to think about profitably incorporating online board game production in broad-based curricular learning. Résumé :Cet article présente une étude de cas menée dans deux écoles publiques de la grande région de Toronto en complément d’une étude expérimentale multisite visant à explorer la conception de jeux éducatifs en tant qu’activité d’apprentissage pour stimuler la motivation et l’engagement des élèves dans des activités de lecture et d’écriture liées au curriculum (Owston et al., 2007). Les chercheurs ont étudié les enfants lors de la création puis de l’utilisation de quatre jeux de plateau en ligne axés sur la matière de 4e année en géographie. Les élèves ont réalisé une version des jeux de Tic-Tac-Toe, de Quelques arpents de pièges, de Serpents et échelles et de Ma mère l’Oie. Les écoles partageaient les mêmes orientations positives en faveur de l’apprentissage axé sur la technologie et l’utilisation de bonnes ressources technologiques, mais elles différaient quant à leurs antécédents institutionnels de mise en œuvre de l’utilisation des ordinateurs dans l’apprentissage du curriculum. L’approche adoptée, l’accès à l’équipement technologique ainsi que son utilisation variaient de manière significative selon les classes, ce qui a influencé les pratiques pédagogiques et les expériences d’apprentissage. Malgré le fait que les améliorations observées par rapport à l’apprentissage de la lecture et de l’écriture au moyen de méthodes traditionnelles se soient limitées à l’amélioration des structures de phrase logiques (Owston et al., 2007), la création de jeux a permis aux élèves d’acquérir des compétences en littératie numérique, y compris des connaissances en informatique et en dactylographie. En outre, le projet a permis aux enseignants participants de réfléchir à la possibilité d’intégrer de manière profitable la création de jeux de plateau en ligne au sein de l’apprentissage du curriculum en général.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie