Academic literature on the topic 'Centre de données virtualisé'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Centre de données virtualisé.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Centre de données virtualisé"

1

Bidan, Marc, Hugues Ferreboeuf, Laurie Marrauld, and Florence Rodhain. "Le numérique est une industrie de plus en plus lourde." Reflets de la physique, no. 77 (February 2024): 151–54. http://dx.doi.org/10.1051/refdp/202477151.

Full text
Abstract:
L’informatique en nuage et les pratiques qui s’y rattachent sont l’une des activités les plus énergivores de tout l’écosystème numérique. Le 10 mars 2021, un incendie a détruit entièrement l’un des quatre centres de données strasbourgeois de OVH, le numéro un français du “cloud computing”. Cet incendie malheureux (voir la photo, p. 153) et ses conséquences lourdes doivent nous inciter à repenser le rapport du numérique à l’environnement et à sa propre durabilité. Les dégâts et les impacts de cet incendie montrent que le “cloud”, le « nuage », n’est pas si éthéré que cela. Bien au contraire. Lorsque le centre de données brule, c’est bien de la matière qui brule. Nos données sont hébergées et traitées dans des usines, même si leur réalité physique, virtualisée par les discours marketing et médiatiques, est devenue de moins en moins perceptible pour l’utilisateur final.
APA, Harvard, Vancouver, ISO, and other styles
2

Rubiliani, Claudio. "L’insoutenable pesanteur du réel." Topique 160, no. 1 (2024): 137–50. http://dx.doi.org/10.3917/top.160.0137.

Full text
Abstract:
Notre monde virtualisé estompe la frontière entre le réel et l’imaginaire. Ce contexte angoissant favorise l’émergence de néo-totalitarismes. Ceux-ci, tel le wokisme, essaient d’imposer leur dogme et leurs normes par des stratégies éprouvées : détournement ou rejet des données scientifiques, telle la fallacieuse théorie du genre, réécriture de l’Histoire, violences psychiques et physiques de la « cancel culture ». Par leur vulnérabilité, les adolescents constituent la cible principale et les premières victimes de cette dictature du fantasme.
APA, Harvard, Vancouver, ISO, and other styles
3

Gervais, M. J., François Chagnon, and André Paccioni. "Augmenter l’utilisation des données probantes par les intervenants et les gestionnaires en centre jeunesse." Service social 57, no. 1 (2011): 49–62. http://dx.doi.org/10.7202/1006247ar.

Full text
Abstract:
Depuis une dizaine d’années, une importance accrue est accordée à l’utilisation des données probantes afin d’améliorer la qualité des services psychosociaux offerts aux jeunes et aux familles en difficulté. Malgré cet intérêt, la connaissance des conditions favorables afin de soutenir l’utilisation des données probantes dans les milieux d’intervention est limitée et doit être développée. En se fondant sur l’examen de la littérature et sur une recherche qualitative, la présente étude examine les besoins, en matière de données probantes, de 15 gestionnaires et 15 intervenants travaillant en centre jeunesse au Québec. L’étude suggère que la production de données adaptées aux besoins des intervenants et des gestionnaires, présentées dans un format adéquat et respectant les standards de validité scientifique, permet de favoriser leur utilisation.
APA, Harvard, Vancouver, ISO, and other styles
4

Harvey, C. C., C. Huc, and M. Nonon-Latapie. "Centre de données de la physique des plasmas." Advances in Space Research 31, no. 5 (2003): 1291–95. http://dx.doi.org/10.1016/s0273-1177(02)00943-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Charleroy, Arnaud, Xavier Delpuech, and Pascal Neveu. "Vitioeno, un centre de ressources numériques pour la production de données scientifiques FAIR." BIO Web of Conferences 68 (2023): 01030. http://dx.doi.org/10.1051/bioconf/20236801030.

Full text
Abstract:
Résumé INRAE et l’IFV ont mis en place un centre de ressources numériques ouvertes et librement accessibles, avec l’objectif d’aider et de faciliter la structuration et la qualification des données selon les principes FAIR. Ce centre de ressource pour l’aide à la gestion des données « Vitioeno » est disponible en ligne, en français et en anglais, à l’adresse https://vitioeno.mistea.inrae.fr/resource/app/. Il recense et donne un accès ouvert à différents types de ressources numériques existantes, en particulier des référentiels (matériel végétal et variables expérimentales), des documents téléchargeables de type protocoles, et des applications ou liens utiles.
APA, Harvard, Vancouver, ISO, and other styles
6

Perrault, Francine, and Daniel Fortin. "Vécu et perception des usagers d’un centre de crise." Santé mentale au Québec 18, no. 1 (2007): 287–301. http://dx.doi.org/10.7202/032260ar.

Full text
Abstract:
RÉSUMÉ Le texte rapporte les résultats d'une série d'entrevues semi-dirigées effectuées auprès de cinquante anciens usagers d'un centre de crise. Les données recueillies portent sur le vécu des résidants et leurs appréciations des services fournis, des intervenants et des résultats de l'intervention faite par le centre.
APA, Harvard, Vancouver, ISO, and other styles
7

Quest, Christian, Antoine Courmont, Samuel Goeta, and Timothée Gidoin. "« Mettre l’utilisateur au centre de la diffusion de données ». Entretien avec Christian Quest." Statistique et société 5, no. 3 (2017): 25–28. https://doi.org/10.3406/staso.2017.1046.

Full text
Abstract:
La loi pour une République numérique a impulsé la création d’un service public de la donnée, dont une des missions centrales est de mettre à disposition des bases de données dite de référence. Ces données «constituent une référence commune pour nommer ou identifier des produits, des services, des territoires ou des personnes ; sont réutilisées fréquemment par des personnes publiques ou privées autres que l’administration qui les détient ; leur réutilisation nécessite qu’elles soient mises à disposition avec un niveau élevé de qualité » . La base adresse nationale est l’une des neuf bases de données de référence. Dans cet entretien, nous revenons avec Christian Quest, coordinateur de la base adresse nationale au sein de la mission Etalab et président d’OpenStreetMap France de 2014 à 2017, sur l’origine de cette base et les conditions nécessaires pour que celle-ci devienne une donnée de référence.
APA, Harvard, Vancouver, ISO, and other styles
8

De Lamberterie, Isabelle. "La valorisation des banques de données du CNRS." Revue française d'administration publique 72, no. 1 (1994): 675–83. http://dx.doi.org/10.3406/rfap.1994.2864.

Full text
Abstract:
The valorisation of the national centre for scientific research’s data bases The National Centre for Scientific Research is a producer of data bases which are direct product or sub-product of research. Therefore it has to articulate the valorisation of research results - the data bases - with the rules for public data dissemination and its own mission of scientific information dissemination. It also has to take into account the rights of researchers and the rights of so-called “reserved” informations. The valorisation of data bases also has to reconcile the possibilities of giving monopolies to contracting enterprises and the duties of dissemination included in the proposal of a european community directive on the protection of data bases.
APA, Harvard, Vancouver, ISO, and other styles
9

Rey, Grégoire, Agathe Lamarche-Vadel, and Éric Jougla. "Comment mesure-t-on les causes de décès en France ?" Questions de santé publique, no. 21 (June 2013): 1–4. http://dx.doi.org/10.1051/qsp/2013021.

Full text
Abstract:
L’Inserm est en charge de la production des données sur les causes de décès depuis 1968. La base de données alimentée par les 540000 décès annuels, et gérée par le Centre d’épidémiologie sur les causes médicales de décès (CépiDc)1, inclut pour chaque décès des données médicales, sociodémographiques et géographiques. Ces données sont diffusées par différents biais (site internet, requêtes spécifiques, publications…), et des travaux réguliers sont effectués par le CépiDc pour évaluer et améliorer leur qualité. Les analyses réalisées à partir de cette base de données ont permis de mettre en évidence certaines spécificités importantes de la mortalité en France comparée à celle d’autres pays: niveau très élevé des causes de décès liées aux conduites à risque et évitables grâce à la prévention primaire, et fortes inégalités spatiales, sociales et par sexe de la mortalité.
APA, Harvard, Vancouver, ISO, and other styles
10

Cohen, Marsha M., Noralou P. Roos, Carolyn DeCoster, Charlyn Black, and Kathleen M. Decker. "Bases de données du Manitoba basées sur la population et planification à long terme: Au-Delà des bases de données d'hôpitaux." Healthcare Management Forum 8, no. 3 (1995): 14–23. http://dx.doi.org/10.1016/s0840-4704(10)60915-5.

Full text
Abstract:
Le Manitoba Centre for Health Policy and Evaluation (MCHPE) fait une recherche sur les services de santé concentrée sur les bases de données administratives du Manitoba. Les bases de données administratives contiennent de l'information qui est recueillie de façon constante et systématique pour les besoins de l'administration, comme les demandes de remboursement des hôpitaux et des médecins, et les exigences de financement. On décrit dans cet article les cinq principales bases de données du MCHPE, leurs points forts et leurs points faibles, ainsi que le fonctionnement du Population Health Information System (PHIS). Quatre modules du PHIS illustrent comment les données sont utilisées pour fournir de l'information utile aux planificateurs de soins de santé, aux administrateurs et aux analystes de politiques. Enfin, on explore les projets et les orientations futurs pour l'utilisation de bases de données administratives.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Centre de données virtualisé"

1

Tayachi, Zeineb. "Sûreté de fonctionnement et provisionnement éco-énergétique dans les centres de données virtualisés IaaS." Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1292.

Full text
Abstract:
Le Cloud computing offre aux utilisateurs l’opportunité d’exploiter des services qui peuvent être des infrastructures, des plateformes, des applications,... Ceci représente un gain de temps et d’argent considérable puisque l’utilisateur n’a besoin ni d’investir dans une infrastructure onéreuse, ni de gérer sa maintenance, de plus il paye juste les ressources utilisées. Afin de prendre en charge des applications à grande échelle et stocker de gros volumes de données, les centres de données ont été largement déployés par des fournisseurs cloud. Cependant, les études ont montré une mauvaise utilisation des ressources qui ne sont pas exploitées pleinement. Les technologies de virtualisation ont permis d’améliorer la situation en déployant des centres de données virtualisés. Ces derniers sont des centres de données où tout ou une partie du matériel (par exemple, serveurs, routeurs, commutateurs et liens) est virtualisé à l’aide d’un logiciel appelé hyperviseur qui divise l’équipement en plusieurs instances virtuelles isolées et indépendantes (comme des machines virtuelles). Toutefois les performances des équipements peuvent être atténuées à cause de plusieurs phénomènes tels que le vieillissement logiciel. L’objectif de cette thèse est d’évaluer les performances de deux composants clés dans les centres de données qui sont le serveur virtualisé et le commutateur virtuel. Puisque, l’architecture de ces systèmes est complexe, on a opté pour utiliser les formalismes de modélisation avant de mettre en place des solutions pratiques. Notre première contribution concerne la modélisation et l’évaluation de la performabilité d’un serveur virtualisé qui implémente une politique de gestion de l’énergie et utilise le rajeunissement logiciel comme une technique proactive afin de prévenir les aléas de vieillissement logiciel. Cette modélisation est basée sur une approche modulaire utilisant le SRN (Stochastic Reward Nets) qui décrit les différents états du SVS ainsi que les transitions régissant le passage d’un état à l’autre. L’analyse numérique permet de capturer l’impact de la variation de la charge de travail et le trafic en rafale sur les métriques de performabilité, ce qui permet de bien définir les paramètres du système. La seconde contribution porte sur l’évaluation des performances d’un commutateur virtuel qui détermine les performances du réseau puisqu’il établit la communication entre des VMs. Le modèle analytique proposé représente l’architecture interne de cenoeud critique avec plusieurs cartes d’interface réseau (représentant des ports) et plusieurs cœurs de processeur (CPU). Chaque CPU sert un ensemble de ports. Le modèle est basé sur les files d’attente avec serveur en vacance et des arrivées groupées. Les résultats numériques montrent l’impact de la taille du groupe et la politique d’acceptation sur les performances du commutateur. Ces résultats peuvent être intéressants lors du dimensionnement des ressources d’un commutateur virtuel<br>Cloud computing allows users to exploit services such as infrastructures, platforms, applications, ...This allows a considerable cost and time saving since users do not need buying and managing of equipment. Moreover, they just pay the resources used (pay-as-you go). With the increasing large-scale applications and the need to store huge quantities of data, data centers have been widely deployed. However, studies have shown the under utilization of resources. Therefore, Cloud providers resort to virtualization technologies that are adopted by data center architectures and virtualized data centres have been deployed. A Virtualized Data Center is a data center where some or all of the hardware (e.g, servers, routers, switches, and links) are virtualized by using software called hypervisor that divides the equipment into multiple isolated and independent virtual instances (e.g virtual machines (VMs)). However, equipment performance can be mitigated due to several phenomena such as software aging. In this thesis, we focus on performance evaluation of two components in the data centers which are the virtualized server and the virtual switch, by usingmodeling formalisms. The first contribution concerns performability modeling and analysis of server virtualized systems subject to software aging, software rejuvenation and implements an energy management policy. A modular approach based on SRNs is proposed to investigate dependencies between several server virtualized modules. Numerical analysis shows how workload with bursty nature impacts performability metrics. This can handle decision making related to rejuvenation scheduling algorithms and to select the suitable rejuvenation mechanism. The second contribution concerns virtual switch (VS) which is considered as key element in data center networks since it achieves the communication between virtual machines. An analytical queueing model with batch arrivals and server vacations is proposed to evaluate VS performance with several network interface cards and several CPU cores. Performance metrics are obtained as a function of two proposed batch acceptance strategies and mean batch size. Numerical results aremeaningful when sizing virtual switch resources
APA, Harvard, Vancouver, ISO, and other styles
2

Dumont, Frédéric. "Analyses et préconisations pour les centres de données virtualisés." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0249/document.

Full text
Abstract:
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure<br>This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity
APA, Harvard, Vancouver, ISO, and other styles
3

Gogunska, Karyna. "Étude du coût de mesure des réseaux virtualisés." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4077.

Full text
Abstract:
La tendance actuelle dans le développement et le déploiement d’applications consiste à les embarquer dans des machines virtuelles ou des conteneurs. Il en résulte une combinaison de configurations de réseaux physiques et virtuels combinant des commutateurs virtuels et physiques avec des protocoles spécifiques pour créer des réseaux virtuels s'étendant sur plusieurs serveurs. Ce nouvel environnement constitue un défi lorsqu'il s'agit de mesurer et de debuguer les problèmes liés aux performances. Dans cette thèse, nous examinons le problème de la mesure du trafic dans un environnement virtuel et nous nous concentrons sur un scénario typique : des machines virtuelles interconnectées par un commutateur virtuel. Nous avons étudié le coût de la mesure en continu du trafic réseau des machines. Plus précisément, nous avons évalué le cout du partage du substrat physique entre la tâche de mesure et l’application. Nous avons dans un premier confirmé l'existence d'une corrélation négative entre la mesure et le trafic applicatif. Dans une seconde partie de la thèse, nous avons orienté notre travail vers une minimisation de l'impact des mesures en utilisant des techniques d'apprentissage automatiques en temps réel. Nous avons proposé une solution basée sur les données, capable de fournir des paramètres de surveillance optimaux pour les mesures de réseau virtuel avec un minimum d'interférence pour le trafic applicatif<br>The current trend in application development and deployment is to package applications within containers or virtual machines. This results in a blend of virtual and physical resources with complex network setups mixing virtual and physical switches along with specific protocols to build virtual networks spanning over several servers. While this complexity is hidden by cloud management solutions, this new environment constitutes a challenge when it comes to monitor and debug performance related issues. In this thesis, we consider the problem of measuring traffic in a virtualized environment and focus on one typical scenario, virtual machines interconnected with a virtual switch. We assess the cost of continuously measuring the network traffic of the machines. Specifically, we seek to estimate the competition that exists to access the resources (e.g., CPU) of the physical substrate between the measurement task and the application. We confirm the negative correlation of measurement within such setup and propose actions towards its minimization. Concluding on the measurement interference with virtual network, we then turn our work towards minimizing its presence in the network. We assess the capability of machine learning techniques to predict the measurement impact on the ongoing traffic between virtual machines. We propose a data-driven solution that is able to provide optimal monitoring parameters for virtual network measurements with minimum traffic interference
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Louët Guillaume. "Maîtrise énergétique des centres de données virtualisés : D'un scénario de charge à l'optimisation du placement des calculs." Phd thesis, Ecole des Mines de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-01044650.

Full text
Abstract:
Cette thèse se place dans le contexte de l'hébergement de services informatiques virtualisés et apporte deux contributions. Elle propose premièrement un système d'aide à la gestion modulaire, déplaçant les machines virtuelles du centre pour le maintenir dans un état satisfaisant. Ce système permet en particulier d'intégrer la notion de consommation électrique des serveurs ainsi que des règles propres à cette consommation. Sa modularité permet de plus l'adaptation de ses composants à des problèmes de grande taille. Cette thèse propose de plus un outil pour comparer différents gestionnaires de centres virtualisés. Cet outil injecte un scénario de montée en charge reproductible dans une infrastructure virtualisée. L'injection d'un tel scénario permet d'évaluer les performances du système de gestion du centre grâce à des sondes spécifiques. Le langage utilisé pour cette injection est extensible et permet l'utilisation de scénarios paramétrés.
APA, Harvard, Vancouver, ISO, and other styles
5

Cerović, Danilo. "Architecture réseau résiliente et hautement performante pour les datacenters virtualisés." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS478.

Full text
Abstract:
Le volume de trafic échangé dans les centres de données croît de façon exponentielle et tout nous porte à croire que cette tendance devrait continuer dans un avenir proche. Afin de suivre cette augmentation, de nombreux progrès dans le domaine des réseaux ont été effectués : les débits des interfaces réseau modernes atteignent aujourd’hui des vitesses supérieures à 40Gbps. Néanmoins, l’exploitation de ces interfaces à haut débit est limitée par l'architecture des piles réseau génériques qui sont incapables de traiter les paquets reçus à une vitesse suffisamment rapide. De nombreuses solutions matérielles et logicielles sont donc récemment apparues afin d'augmenter la vitesse de traitement des paquets. Dans cette thèse, nous étudierons différentes approches, reposant sur l’utilisation de logiciel, de matériel ou d’une combinaison des deux, afin d’améliorer les performances de la partie traitement de paquets réseau sur des hôtes de type serveur. Certaines solutions étudiées sont basées sur le routeur modulaire Click qui utilise, pour exécuter ses fonctions réseau, différents types de matériel (GPU, les FPGA, exécution en parallèle sur de multiples cœurs). Nous explorerons également des solutions logicielles alternatives à Click. Nous comparerons les solutions logicielles et matérielles de traitement de paquets en fonction de différents critères et discuterons de leurs contraintes et de leurs exigences ainsi que de leurs possibilités d'intégration dans des environnements virtualisés. Comme première contribution, nous proposons une architecture de réseau « fabric » résiliente et hautement performante. Notre objectif est de construire un réseau maillé de niveau 2 utilisant uniquement des cartes d'accélération matérielle qui effectuent le traitement des paquets en place des routeurs et des commutateurs. Nous avons décidé d'utiliser, pour la communication entre ces cartes réseau intelligentes, le protocole TRILL qui permet d’avoir une meilleure utilisation des liens réseau tout en assurant un transfert de données au moindre coût entre les hôtes. Le traitement des paquets du plan de données est déchargé sur une carte réseau programmable qui effectue le traitement en parallèle. De plus, nous proposons d'utiliser l'API ODP afin que le code de l'application de traitement de paquets puisse être réutilisé par toute autre solution prenant en charge ladite l'API. Notre deuxième contribution consiste à l’implémentation d’un plan de données du protocole TRILL sur la carte réseau intelligente MPPA (Massively Parallel Processor Array) prenant en charge l’API ODP. Nos résultats expérimentaux montrent que nous pouvons traiter les trames TRILL à un débit de ligne en full-duplex (jusqu'à 40Gbps) pour différentes tailles de paquets tout en réduisant le temps de latence. Comme troisième contribution, nous proposons une analyse mathématique de l'impact des différentes topologies de réseau sur la charge du plan de contrôle. Nous avons examiné diverses topologies de réseau et comparé leurs charges induites par le trafic de contrôle. Nous avons également montré que la topologie hypercube était celle qui convenait le mieux à notre cas d'utilisation de centre de données PoP, car elle n'avait pas une charge de plan de contrôle élevée et avait une meilleure résilience que la topologie fat-tree tout en ayant une distance moyenne plus courte entre les nœuds<br>The amount of traffic in data centers is growing exponentially and it is not expected to stop growing any time soon. This brings about a vast amount of advancements in the networking field. Network interface throughputs supported today are in the range of 40Gbps and higher. On the other hand, such high interface throughputs do not guarantee higher packet processing speeds which are limited due to the overheads imposed by the architecture of the network stack. Nevertheless, there is a great need for a speedup in the forwarding engine, which is the most important part of a high-speed router. For this reason, many software-based and hardware-based solutions have emerged recently with a goal of increasing packet processing speeds. The networking stack of an operating system is not conceived for high-speed networking applications but rather for general purpose communications. In this thesis, we investigate various approaches that strive to improve packet processing performance on server-class network hosts, either by using software, hardware, or the combination of the two. Some of the solutions are based on the Click modular router which offloads its functions on different types of hardware like GPUs, FPGAs or different cores among different servers with parallel execution. Furthermore, we explore other software solutions which are not based on the Click modular router. We compare software and hardware packet processing solutions based on different criteria and we discuss their integration possibilities in virtualized environments, their constraints and their requirements. As our first contribution, we propose a resilient and highly performant fabric network architecture. Our goal is to build a layer 2 mesh network that only uses directly connected hardware acceleration cards that perform packet processing instead of routers and switches. We have decided to use the TRILL protocol for the communication between these smart NICs as it provides a better utilization of network links while also providing least-cost pair-wise data forwarding. The data plane packet processing is offloaded on a programmable hardware with parallel processing capability. Additionally, we propose to use the ODP API so that packet processing application code can be reused by any other packet processing solution that supports the ODP API. As our second contribution, we designed a data plane of the TRILL protocol on theMPPA (Massively Parallel Processor Array) smart NIC which supports the ODP API. Our experimental results show that we can process TRILL frames at full-duplex line-rate (up to 40Gbps) for different packet sizes while reducing latency. As our third contribution, we provide a mathematical analysis of the impact of different network topologies on the control plane’s load. The data plane packet processing is performed on the MPPA smart NICs. Our goal is to build a layer 2 mesh network that only uses directly connected smart NIC cards instead of routers and switches. We have considered various network topologies and we compared their loads induced by the control plane traffic. We have also shown that hypercube topology is the most suitable for our PoP data center use case because it does not have a high control plane load and it has a better resilience than fat-tree while having a shorter average distance between the nodes
APA, Harvard, Vancouver, ISO, and other styles
6

Moussa, Hadjer. "Traitement automatique de données océanographiques pour l'interpolation de la ∫CO₂ de surface dans l'océan Atlantique tropical, en utilisant les données satellitaires." Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0025/document.

Full text
Abstract:
Ce travail de thèse consiste à utiliser les données satellitaires de SST (température de surface), SSS (salinité de surface), et Chl-a (chlorophylle-a), pour l’interpolation de la fugacité du CO2 (fCO2) dans la couche de surface de l’océan Atlantique tropical, pour les saisons de la période 2002-2013. Trois types de données ont été utilisés : in situ (BD (base de données) SOCAT V.3) ; satellitaires (capteurs : MODIS-A, Sea-WIFS, et SMOS) ; et assimilées (BD SODA V.2.2.4). La première étape était la classification des données en se basant sur la SST. La deuxième étape était l’interpolation de la fCO2 (pour chaque classe de chaque saison), en utilisant des RNs (réseaux de neurones artificiels) de type feedforward, avec un apprentissage de type backpropagation. Les résultats obtenus (RMSEs (root mean square error) variant de 8,8 à 15,7 µatm) permettent de confirmer l’importance de : traiter les saisons séparément, classifier les données, et choisir le meilleur RN en fonction des résultats de la généralisation. Ceci a permis l’élaboration de 138 fichiers CSV (Comma-separated values) de fCO2 mensuelle, avec une résolution de 4 km x 4 km, pour la période allant de juillet 2002 à décembre 2013<br>This thesis work consists of using satellite data of SST (sea surface temperature), SSS (sea surface salinity), and Chl-a (chlorophyll-a), in order to interpolate the CO2 fugacity (fCO2) in the surface of the tropical Atlantic ocean, for seasons of the period 2002-2013. Three data types were used: in situ (SOCAT V.3 DB (database)); satellite (MODIS-A, Sea-WIFS, and SMOS sensors); and assimilated (SODA V.2.2.4 DB). The first step was the data classification based on SST. The second step was the fCO2 interpolation (for each class of each season), using feedforward NNs (artificial neural networks) with a backpropagation learning method. Obtained results (RMSEs (root mean square error) between 8,8 and 15,7 µatm) confirm the importance of: process each season separately, pass through data classification step, and choose the best NN on the basis of generalization step results. This allowed the development of 138 monthly fCO2 CSV (Comma-separated values) file, with 4 km x 4 km spatial resolution, for the period from July 2002 to December 2013
APA, Harvard, Vancouver, ISO, and other styles
7

Hamadache, Clarisse. "Recherche d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'EROS-II." Phd thesis, Université Louis Pasteur - Strasbourg I, 2004. http://tel.archives-ouvertes.fr/tel-00008874.

Full text
Abstract:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57.10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79+/-0,20).10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique.
APA, Harvard, Vancouver, ISO, and other styles
8

Dumas, feris Barbara Pilar. "Réseaux optiques en mode paquet pour les connexions internes à un centre de données." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0057/document.

Full text
Abstract:
La consommation d'énergie des centres de données est un enjeu majeur. Leurs communications internes représentent près du quart de cette consommation. Les technologies de commutation optique ont en principe une meilleure efficacité énergétique que les solutions actuelles. Ce travail porte sur les réseaux optiques en mode paquet pour des centres de données de petite et moyenne taille. Il s'est déroulé dans le cadre du projet EPOC (Energy Proportional and Opportunistic Computing) qui s'intéresse à la réduction de la consommation d'énergie d'un centre de données alimenté partiellement par des sources renouvelables. Une hypothèse clé est l'absence d'un réseau de stockage dédié réduisant ainsi la consommation des interconnexions. Par contre, afin de pouvoir éteindre certains serveurs selon la charge de travail et l'énergie disponible, le débit doit être de l'ordre de 100 Gbit/s. Après un état de l'art des réseaux optiques pour centre de données nous choisissons une solution reposant sur une infrastructure entièrement passive et des émetteurs rapidement accordables en longueur d'onde, proposée récemment dans la littérature (POPI).Nous étudions les limitations dues aux composants (pertes d'insertion, plage d'accord et espacement des canaux). Nous proposons une extension (E-POPI) qui permet d'augmenter le nombre de serveurs connectés en utilisant plusieurs plages de longueurs d'onde. Pour les centres de données de plus grande taille nous proposons un réseau à deux étages (intra- et inter-racks) opérant respectivement dans les bandes C et L, POPI+. La connexion entre étages se fait via une passerelle transparente dans un sens et opaque dans l'autre. Différentes solutions de contrôle des deux étages sont détaillées.Un des éléments essentiels de faisabilité de ces architectures est de concilier la montée en débit avec les pertes du réseau passif d'interconnexion. Les techniques cohérentes des transmissions longue distance ne sont pas actuellement envisageables pour un centre de données. Nous avons donc étudié les formats PAM 4 et 8, par simulation avec différents débits (jusqu'à 112 Gbit/s et récepteurs (PIN, APD et SOA-PIN) et aussi, expérimentalement, à 12 et 18 Gbit/s. Nous avons développé une méthode de compensation des distorsions générées par les différents composants qui procure un compromis entre précision de correction et temps de calcul.Ces résultats nous permettent de déterminer les pertes d'insertion tolérables. Nous les combinons avec les limitations liées à la plage d'accord des émetteurs et à l'encombrement spectral des canaux occupant des fenêtres multiples de 12,5 GHz pour dimensionner les différentes architectures. Les réseaux POPI, E-POPI et POPI+ permettent respectivement la connexion de 48, 99 et 2352 entités à 112 Gbit/s. Nos évaluations tiennent compte d'une possible dispersion des caractéristiques des principaux composants<br>Data-center energy consumption is nowadays a major issue. Intra-data-center networking accounts almost for a quarter of the data-center total power consumption. Optical switching technologies could provide higher power efficiency than current solutions based on electrical-packet switching. This work focuses on optical-packet-switched networks for small- and medium-size data centers. It takes part of the EPOC (Energy-Proportional and Opportunistic Computing) project, which main interest consists on reducing the overall power consumption of a data center partially powered by renewable sources. A key assumption is that our data center does not rely on a dedicated storage network, in order to reduce the consumption of those interconnections. In addition, with the aim of being able to turn off some servers according to the workload and the available energy, the bit rate must be close to 100 Gbit/s. We have chosen, after studying the state of the art of data-center interconnects, a purely passive network architecture based on fast-wavelength-tunable transmitters under the name of POPI.We study POPI's limitations due to its components (insertion loss, tuning range and channel spacing). We then propose an extension called E-POPI that allows to increase the number of connected servers by using several transmission bands. For larger data centers, we propose POPI+, a two-stage infrastructure for intra- and inter-rack communications operating in the C and L bands, respectively. The connection between both stages is done via a transparent gateway in one direction and an opaque one in the other. We discuss different control solutions for both stages.The feasibility of these architectures depends on, among other factors, dealing with bit-rate increasing and power losses of a passive interconnect. Coherent long-distance-transmission techniques are not currently suited to data centers. We therefore studied PAM 4 and 8 modulation formats with direct detection. On one hand, by simulation, with different bit rates (up to 112 Gbit/s) and receivers (PIN, APD and SOA-PIN) and, on the other hand, experimentally, at 12 and 18 Gbit/s. We have developed a method for compensating the distortions generated by the different network components. Our method takes into account a good tradeoff between correction accuracy and computation time.Simulation results allow us to determine the amount of insertion loss that may be supported. We then combine these results with the limitations of transmitters-tuning range and channel spacing using multiple of 12.5 GHz slots for dimensioning the proposed architectures. POPI, E-POPI and POPI+ interconnects allow the connection of 48, 99 and 2352 entities, respectively, at 112 Gbit/s. Our assessments take into account a potential dispersion of the characteristics of the main architecture components
APA, Harvard, Vancouver, ISO, and other styles
9

Hamadache, Clarisse. "Recherches d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'Eros II." Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/HAMADACHE_Clarisse_2004.pdf.

Full text
Abstract:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57. 10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79 +/- 0,20). 10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique<br>The systematic search for gravitational microlensing effect towards the galactic center makes it possible to probe the galactic structure. The thesis work presented here concerns the analysis of all galactic center data collected by the Eros2 experiment during 7 years (1996-2003) : the survey of 66 square degrees located on both sides of the galactic plane has allowed to build the lightcurves of approximately 50 million stars in two filters. Gravitational microlensing events with a duration ranging between 4 days and 500 days and whose maximum magnification is higher than 2. 18 were required ; this makes it possible to select convincing candidates and constitutes an originality compared to the previous analyses (Eros2 and other experiment) where maximum magnification was required to be higher than 1. 34. The analysis revealed 139 microlensing candidates. This sample contains 91 candidates whose source is a clump red giant star with an associated detection efficiency of 56%. The optical depth obtained for the clump red giant sources is (1,79 +/- 0,20). 10e-6. This value is in good agreement with predicted values as well as with the latest result of the Macho group but it is lower than the Ogle and Moa group results which are 2 to 3 times higher than the predicted one. In addition, the large statistics of galactic center data collected by Eros2 made it possible to calculate the optical depth for various galactic latitudes, and to detect the gradient of optical depth expected in galactic models
APA, Harvard, Vancouver, ISO, and other styles
10

Kaced, Yazid. "Études du refroidissement par free cooling indirect d’un bâtiment exothermique : application au centre de données." Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS499/document.

Full text
Abstract:
Un centre de données est un site comportant des salles hébergeant un grand nombre d’équipements informatiques. Le fonctionnement de ces équipements informatiques induit des apports de chaleur très conséquents qui doivent être compensés par des systèmes de refroidissement. En effet, les normes imposent des plages restreintes de température et d’humidité dans les salles qui induisent de fortes consommations d’énergie. Il est donc nécessaire de développer et d’optimiser des solutions moins énergivores. Le refroidissement par free cooling consiste à refroidir les équipements en exploitant les conditions climatiques favorables. Les travaux réalisés durant cette thèse s’appuient sur une expérimentation menée dans des conditions climatiques réelles au sein d’un bâtiment. Il s’agit d’étudier le refroidissement de baies informatiques. Pour mettre en place un refroidissement par « free cooling » indirect, la configuration du bâtiment a été modifiée au cours de la thèse et une instrumentation conséquente mise en place. Les objectifs sont de déterminer à partir de séquences de mesures des coefficients de performance, de développer et de valider un modèle numérique destiné à la prédiction du comportement thermo-aéraulique en usage de ce type de solution. Dans un premier temps, des expériences sont menées avec une puissance dissipée à l’intérieur du bâtiment et un refroidissement assuré uniquement par une circulation de l’air extérieur au sein de trois parois. Des modifications ont ensuite été apportées au sein du bâtiment. Une circulation d’air en circuit fermé a été créée à l’intérieure afin de refroidir les baies par un flux d’air traversant. Afin de disposer d’une base de données probante, de nombreuses séquences de mesures avec une ou plusieurs baies sont réalisées dans différentes conditions. La variation des paramètres opératoires permet de bien appréhender le fonctionnement de l’installation et définir les paramètres d’optimisation énergétique. Les modèles numériques sont développés par le biais de TRNSYS / TRNFLOW. La confrontation des simulations à des mesures montre la pertinence de la démarche mise en œuvre<br>A data center is a warehouse that contains telecommunication equipment, network infrastructure, servers, and computers. This equipment leads to a very high heat dissipation which must be compensated by the use of cooling systems. Telecommunication standards impose restricted climatic ranges (temperatures and humidity) leading to a very high energy consumption devote to air conditioning. The reduction of this energy consumption constitutes a real challenge which should be raised and solved. Many cooling solutions are proposed as the free cooling solution, which consists in cooling equipment by using external air in propitious climatic conditions. The work carried out during this thesis is based on experiments conducted within a building in real climatic conditions in order to study the cooling of telecom cabinets. During this study, the building configuration was modified, an indirect "free cooling" system was set up and a significant instrumentation was implemented. The objectives are to establish performance factors issued from measurements, to develop and to validate a numerical model in order to predict the thermoaeraulic behavior for this type of solution. Initially, experiments are carried out with a power dissipated inside the building and a cooling provided only by an outside air circulation. Then, significant modifications were made into the building to introduce an internal air circulation in a closed loop in order to evacuate the heat dissipated inside cabinets by a crossing airflow. In order to get a convincing database, measurements were conducted by using one and then several cabinets in different conditions. Modifications are made to operating parameters in order to better understand the installation operation and to define the energy optimization parameters. Numerical models are developed through TRNSYS / TRNFLOW. The confrontation of simulations with measurements shows the implemented approach relevance
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Centre de données virtualisé"

1

Colloque La condition des femmes immigrantes : en savoir davantage (1989 Montréal, Québec). Actes du Colloque La condition des femmes immigrantes : en savoir davantage: Faits actuels et données récentes [organisé par] le Centre des femmes de Montréal, tenu le 21 avril 1989. Éditions Communiqu'Elles, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Journet, Charles. Commentaire de la première lettre de saint Jean et de ses récits sur la résurrection: Conférences données par le cardinal Journet à Genève au Centre universitaire catholique, du 1er novembre 1969 au 13 juin 1970. Fondation du cardinal Journet, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

The Scope of the shopping centre industry in Canada, 1989 : basic facts and economic impacts =: L'industrie des centres commerciaux au Canada, 1989 : données de base et impact économique. International Council of Shopping Centers, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Centre de données virtualisé"

1

Guérit, Magalie, and Bernard Gratuze. "Des indices du travail du verre de la fin du iiie siècle à la fin du viie siècle à Saran (Loiret) : confrontation des données archéologiques et archéométriques." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12phk.

Full text
Abstract:
Les sites ruraux de la “ZAC des Vergers” et de “la Motte Pétrée” à Saran (Loiret) ont révélé des occupations tardo-antiques et alto-médiévales qui présentent des traces d’une activité verrière et des vases en verre. Ce mobilier est l’opportunité de confronter les données archéologiques et les analyses archéométriques par LA-ICP-MS (spectrométrie de masse à haute résolution couplée à un plasma inductif avec prélèvement par ablation laser).
APA, Harvard, Vancouver, ISO, and other styles
2

Courtois, Julien, Laurine Guyot, Florence Parot, and Émilie Trébuchet. "Questions méthodologiques." In Les modes de construction privée de l’Antiquité tardive en région Centre-Val de Loire. Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12pgq.

Full text
Abstract:
Cette communication présente l’ensemble des outils d’analyse et de diffusion de l’information élaborés par les membres du Projet Collectif AnTaReC. Dans un premier temps, la collecte de l’information se fait au moyen de fiches d’enregistrement normalisées (une fiche “site” qui retranscrit les données administratives de chaque intervention archéologique, et une fiche “construction” pour chacune des entités construites reconnues sur le site (bâtiment, fond de cabane…). Ces éléments purement descriptifs sont accompagnés de plans de situation, de plan généraux et de plans de détail) qui sont ensuite intégrés dans une base de données à composante spatiale. Cette collecte s’est, dans un premier temps, concentrée sur les données récentes plus facilement accessibles (rapports de fouilles préventives et programmées des vingt dernières années). D’autres outils numériques ont également été mis à la disposition des participants au projet : une base de données bibliographique, ainsi qu’un blog et un compte twitter pour la diffusion de l’information.
APA, Harvard, Vancouver, ISO, and other styles
3

Ferdière, Alain. "Présence de militaires ou fonctionnaires et de “Barbares” en Lyonnaise centrale et Aquitaine Nord-Est (fin IIIe-fin Ve siècle) : réalités et limites." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12pfo.

Full text
Abstract:
On se propose d’examiner ici, d’un point de vue synthétique mais fondé sur des corpus de données aussi complets que possibles, la documentation mobilisable pour reconnaître la présence de populations exogènes barbares, d’une part, de membres de la militia (armée et administration) de l’autre ; ceci dans un vaste territoire couvrant le Centre et le Centre-Ouest de la Gaule, entre le dernier tiers du iiie s. et la fin du ve s. : sources textuelles, voire épigraphiques, et archéologiques (immobilières et mobilières).
APA, Harvard, Vancouver, ISO, and other styles
4

Favennec, Benoît. "L’artisanat de la céramique dans le centre de la Gaule durant l’Antiquité tardive, de la deuxième moitié du iiie siècle au vie siècle ; de la fabrication à la commercialisation de la vaisselle." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12pgl.

Full text
Abstract:
Cette présentation est une synthèse des données et des réflexions sur l’artisanat de la céramique dans le centre de la Gaule lors de l’Antiquité tardive. Elle dresse un aperçu du contexte de la recherche, puis le bilan des connaissances sur les sites potiers (matières premières, aménagements et chaînes opératoires). Les faciès régionaux sont aussi abordés, pour cerner les savoir-faire et les modes de consommation. Des conclusions sur la répartition des sites et sur les perspectives de recherches sont enfin exposées.
APA, Harvard, Vancouver, ISO, and other styles
5

Driard, Cyril. "Un établissement rural de l’Antiquité tardive et du haut Moyen Âge sur le site de la Médiathèque à Lezoux (Puy-de-Dôme)." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12phu.

Full text
Abstract:
Une fouille archéologique préventive réalisée préalablement à la construction d’une médiathèque à Lezoux a permis d’étudier une occupation rurale datée du ive au viie s. Il s’agit d’un établissement implanté sur les ruines d’un ancien complexe artisanal spécialisé notamment dans la production de céramiques durant le Haut-Empire et appartenant au groupe des ateliers de potiers “des Saint Jean”. Les données archéologiques, bien que lacunaires, documentent l’évolution et les transformations d’un des sites de fabrication des céramiques sigillées après l’âge d’or des productions de Lezoux.
APA, Harvard, Vancouver, ISO, and other styles
6

Papin, Pierre. "Nouvelles données sur la topographie historique de Loches aux ve-viie siècles." In L’archéologie des ve-xiie siècles en région Centre-Val de Loire. Fédération pour l’édition de la Revue archéologique du Centre de la France, 2024. https://doi.org/10.4000/13ibi.

Full text
Abstract:
Les opérations menées sur le promontoire de Loches depuis une dizaine d’années ont engendré des données archéologiques inédites sur l’occupation du site durant l’Antiquité tardive et le haut Moyen Âge. Celles-ci permettent aujourd’hui de remettre en cause un certain nombre d’interprétations traditionnelles des textes anciens, et de proposer une nouvelle grille de lecture de la topographie historique du lieu aux ve-viie s. Elles supposent notamment que vicus et castrum, mentionnés par Grégoire de Tours, constituaient deux entités spatiales bien distinctes, et que chacune a connu, dès le très haut Moyen Âge, l’installation d’un lieu de culte. Avec la fondation d’un monastère aux marges de l’agglomération et de la fortification, ce n’est donc pas deux, mais trois établissements religieux dont aurait été doté Loches dès le vie s. Cet article est l’occasion de présenter les nouvelles données archéologiques ainsi que les réflexions ayant conduit à proposer ces nouvelles hypothèses de travail.
APA, Harvard, Vancouver, ISO, and other styles
7

Lorans, Élisabeth. "Les villes ligériennes d’Orléans à Nantes du iiie au viie siècle." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12pdq.

Full text
Abstract:
Cet article collectif, fondé sur une collecte normalisée des informations identifiées comme objets historiques, confronte les trajectoires des villes de Loire d’Orléans à Nantes en passant par Blois, Tours et Angers, soit quatre chefs-lieux de cités et une agglomération de rang intermédiaire, du iiie au viie s. Après la présentation synthétique des données recueillies pour chaque ville, dont la quantité varie de manière notable, plusieurs questions thématiques sont abordées : la topographie générale et le rapport au fleuve, l’impact de la construction de l’enceinte tardo-antique sur la voirie et les franchissements, le devenir des bâtiments antiques et la nature des nouvelles constructions, en distinguant édifices publics ou domestiques et édifices religieux, enfin les transformations de la topographie funéraire. Il s’en dégage un bilan correspondant à ce qui est communément constaté dans les villes de Gaule, soit une image très contrastée entre destructions, reconversions, nouvelles pratiques constructives et nouvelle topographie religieuse et funéraire.
APA, Harvard, Vancouver, ISO, and other styles
8

Chimier, Jean-Philippe, Marie-Denise Dalayeun, Grégory Poitevin, Gwenaël Roy, Françoise Yvernault, and Léa Roubaud. "Les occupations du plateau nord de Tours (Indre-et-Loire) durant le premier Moyen Âge." In L’archéologie des ve-xiie siècles en région Centre-Val de Loire. Fédération pour l’édition de la Revue archéologique du Centre de la France, 2024. https://doi.org/10.4000/13ibq.

Full text
Abstract:
Cet article constitue une première synthèse sur les occupations du plateau nord de Tours durant le premier Moyen Âge. Les données sont constituées des découvertes anciennes, des lieux mentionnés dans les sources écrites et de l’archéologie préventive. Si cet espace agricole apparaît largement mis en valeur, les occupations sont de natures différentes et ne se répartissent pas régulièrement au sein du territoire. L’influence des établissements religieux, en particulier Marmoutier, est peut-être à envisager.
APA, Harvard, Vancouver, ISO, and other styles
9

Liegard, Sophie. "Les sarcophages mérovingiens en grès de la région Centre-Val de Loire. État des connaissances pour l’Eure-et-Loir." In L’archéologie des ve-xiie siècles en région Centre-Val de Loire. Fédération pour l’édition de la Revue archéologique du Centre de la France, 2024. https://doi.org/10.4000/13ic3.

Full text
Abstract:
Le recensement et l’étude des sarcophages en grès de la région Centre, réalisés depuis 2008, sous la responsabilité de Sophie Liegard, ont livré des données tant sur la nature des matériaux utilisés, que sur leurs modes de diffusion, d’utilisation, voire de remploi. À l’occasion du colloque de l’AFAM de Chartres, un bilan des connaissances sur l’Eure-et-Loir est présenté, en attendant la finalisation de ces travaux qui devraient aboutir à la publication d’un inventaire des sarcophages en pierre mis au jour dans ce département.
APA, Harvard, Vancouver, ISO, and other styles
10

Gandini, Cristina, and Simon Girond. "Mutations religieuses et dynamiques territoriales dans la civitas des Bituriges Cubes, de la seconde moitié du IIIe siècle à la fin du VIIe siècle." In L’Antiquité tardive dans le centre et le centre-ouest de la Gaule (IIIe-VIIe siècles). Fédération pour l’édition de la Revue archéologique du Centre de la France, 2022. http://dx.doi.org/10.4000/12ph8.

Full text
Abstract:
Cette contribution s’intéresse aux mutations religieuses qui s’amorcent dans la seconde moitié du iiie s. dans la cité des Bituriges Cubes. Notre objectif est de cerner leurs conséquences sur l’organisation et l’occupation de ce territoire à la fin de l’Antiquité. Les données archéologiques récemment rassemblées sur les lieux de culte permettent de montrer que, comme ailleurs en Gaule, l’abandon d’au moins une partie des sanctuaires est effective bien avant les premiers actes officiels de la législation antipaïenne du ive s. On a l’impression d’un phénomène d’étiolement progressif, en plusieurs étapes, qui s’étale du milieu du iiie s. jusqu’au début du ve s. Toutefois, la disparition assez coordonnée des derniers sanctuaires dans la seconde moitié du ive s., ou au tout début du ve s., est aussi révélatrice de l’impact des politiques impériales et de profonds changements dans la société en cours de christianisation. Le déploiement des premières églises se fixe en priorité sur le réseau antique et résulte d’initiatives de natures variées, prises tantôt par la hiérarchie ecclésiastique pour faciliter la conversion des populations, tantôt par les riches laïcs soucieux de posséder leur propre oratoire. En revanche, les exemples de continuité entre temples païens et églises restent rares.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Centre de données virtualisé"

1

Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-." In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Full text
Abstract:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden &amp; Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden &amp; Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Centre de données virtualisé"

1

Mongbo, Roch Lambert, Ariel Hardy HOUESSOU, Rodrigue Castro GBEDOMON, et al. Écosystème des données probantes et des politiques de développement : Profil régional d’Afrique de l’Ouest francophone. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa41338.

Full text
Abstract:
Renforcer l'utilisation des données probantes pour des politiques publiques plus pertinentes et efficaces en Afrique de l'Ouest francophone : Le rôle d'un Centre d'excellence pour une meilleure prise de décision. La nécessité de fonder les politiques publiques sur des données probantes est devenue cruciale en Afrique de l’Ouest, face aux défis actuels de développement. Des données de qualité fondées sur des repères théoriques solides permettent d’élaborer des politiques plus efficaces et mieux adaptées aux besoins des populations. Le Centre d’excellence Evidence-Policy-Action vise à faciliter l’utilisation de données probantes aux fins de décisions stratégiques pertinentes dans les pays d’Afrique de l’Ouest francophone, renforçant ainsi la légitimité et l’impact positif des interventions publiques. Les systèmes de production et d'utilisation des données pour l’élaboration de politiques publiques ont été façonnés par l'histoire coloniale et post-coloniale de la région, avec des disparités importantes entre les pays et une forte influence des institutions internationales. Ces systèmes reproduisent à ce jour une tradition de politiques publiques qui impliquent peu les populations bénéficiaires de manière optimale, réduisant dès lors leur poids dans le choix des priorités et des modalités de mise en œuvre. L'Afrique de l'Ouest est face aujourd’hui à de nombreux défis (changement climatique, inégalités sociales, dynamique démographique à forte proportion de jeunes peu qualifiés et sans emploi, etc.) qui requièrent des réponses politiques coordonnées, adossées sur des données probantes. L’écosystème actuel des données probantes en Afrique de l’Ouest est caractérisé par une multiplicité d’acteurs (ministères, universités, ONG, Think Tanks) et une production assez abondante dans les secteurs de la santé, de l’éducation et de l’agriculture. Cependant, des disparités subsistent au sein et entre les pays en termes d’infrastructures et de services de recherche. Le manque de coordination entre les acteurs entrave la synergie des efforts et limite la capacité du système a` produire des données de haute qualité pour soutenir des politiques cohérentes et efficientes. A cela s’ajoute le faible enracinement du recours aux données probantes et l’absence de plateformes fiables de partage et de valorisation des données. En réponse à ces enjeux, le Centre d’Excellence Evidence-Policy-Action se présente en catalyseur pour la promotion d’un écosystème de données probantes performant dans la région. Il contribue à renforcer les capacités des acteurs et à faciliter les échanges entre chercheurs, décideurs et praticiens. Ce centre pourrait offrir une plus grande harmonisation et cohérence des politiques publiques par un appui continu à l’utilisation de données fiables pour des décisions stratégiques et opérationnelles. Le renforcement de l’écosystème des données probantes en Afrique de l’Ouest nécessite des efforts coordonnés pour lever les obstacles structurels. Parmi les recommandations formulées figurent le renforcement de la coopération régionale, l’harmonisation des outils de collecte et d’analyse des données, ainsi qu’une sensibilisation accrue sur la centralité des données probantes en politique publique. La mise en place de programmes de formation et d’appui technique pour les acteurs locaux est essentielle pour assurer une appropriation et une utilisation efficace des données probantes dans les processus de développement durable de la région.
APA, Harvard, Vancouver, ISO, and other styles
2

LANKOANDE, Gountiéni D., Kisito GANDJI, Aminata ZONG-NABA, et al. Écosystème des données probantes et des politiques de développement : Profil du Burkina Faso. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa41300.

Full text
Abstract:
L’accès et la valorisation de données probantes restent un défi pour les acteurs de l’écosystème des données probantes au Burkina Faso pour alimenter les décisions politiques et contribuer à l’atteinte des objectifs du développement durable. Les principaux acteurs de l'écosystème des données probantes au Burkina Faso incluent les ministères, les ONG, les associations, les centres de recherche, les médias et les partenaires internationaux. Ces acteurs collaborent pour produire, diffuser, et utiliser des données afin d’éclairer et d’informer les processus de prise de décision au niveau public. L'étude a identifié plusieurs besoins en capacités pour les producteurs, intermédiaires et utilisateurs de données probantes. Les producteurs ont besoin des capacités en traitement et en analyse des données, de stockage et d'archivage, et en gestion éthique des données. Les intermédiaires ont besoin de capacités de prise de décision basée sur les données et de soutien technique pour la communication des résultats de recherche. Les utilisateurs souhaitent un meilleur accès aux plateformes de diffusion et une valorisation efficace des données. Parmi les initiatives innovantes identifiées, Burkina Open Data Initiative ambitionne de renforcer la transparence en rendant les données gouvernementales accessibles, tandis que la Youth Open Data se concentre sur l'entrepreneuriat et l'engagement des jeunes. La Plateforme de l'Institut National de la Statistique et de la Démographie (INSD) offre un accès aux rapports d’enquête et aux micro-données, et la Plateforme Nationale d'Information pour la Nutrition (PNIN) aide à renforcer les systèmes d'information pour la nutrition. En somme, l'établissement d'un Centre d'Excellence est perçu comme une opportunité prometteuse pour renforcer la collaboration, maximiser l'impact des données sur les politiques de développement, et surmonter les défis liés a` l'accès et a` l'utilisation des données probantes au Burkina Faso.
APA, Harvard, Vancouver, ISO, and other styles
3

Jabet, Carole, and Cécile Petitgand. Propositions de principes directeurs : Concilier l'acceptabilité sociale active à l'utilisation secondaire des renseignements personnels sur la santé. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, 2022. http://dx.doi.org/10.61737/yogf7213.

Full text
Abstract:
Dans la cadre de l’initiative Accès aux données de la Table nationale des directeurs de la recherche (TNDR), coordonnée par le Centre de recherche du CHUM (CR-CHUM) et le Fonds de recherche du Québec – Santé (FRQS), l’OBVIA a activement contribué, depuis mai 2021, aux travaux développés au sein du groupe de travail dédié à l’acceptabilité sociale de l’accès et de l’utilisation des données de santé réunissant aux cotés d’une dizaine de partenaires et d’experts au Québec et à l’international. Parmi les travaux issus de ces concertations, ont été élaborés des principes directeurs visant à guider les individus et organisations dans l’adoption de bonnes pratiques pour informer et engager les citoyens dans les projets fondés sur la collecte et la valorisation des données en santé et services sociaux. Le présent document est une réalisation de l’OBVIA en collaboration avec le Groupe de travail sous la responsabilité de Carole Jabet et Cécile Petitgand (FRQS).
APA, Harvard, Vancouver, ISO, and other styles
4

Djamai, N., R. A. Fernandes, L. Sun, F. Canisius, and G. Hong. Python version of Simplified Level 2 Prototype Processor for retrieving canopy biophysical variables from Sentinel-2 multispectral data. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/p8stuehwyc.

Full text
Abstract:
La mission Sentinel-2 de Copernicus est conçue pour fournir des données pouvant être utilisées pour cartographier les variables biophysiques de la végétation a une échelle globale. Les estimations des variables biophysiques de la végétation ne sont pas encore produites de manière opérationnelle par le segment au sol de Sentinel-2. Plutôt, un algorithme de prédiction, appelé Simplified Level 2 Prototype Processor (SL2P), a été défini par l'Agence Spatiale Européenne. SL2P utilise deux réseaux neuronaux à rétropropagation, un pour estimer le variable biophysique de la végétation et l’autre pour quantifier l'incertitude de l'estimation, en utilisant une base de données de conditions de canopée globalement représentatives peuplée à l'aide de simulations de modèle de transfert radiatif de la canopée. SL2P a été mis en œuvre dans la boîte à outils LEAF du Centre Canadien de Télédétection qui s'appuie sur Google Earth Engine. Ce document décrit une implémentation PYTHON de SL2P (SL2P-PYTHON) qui fournit des estimations identiques estimations obtenues avec LEAF en utilisant la même image Sentinel-2 en entrée.
APA, Harvard, Vancouver, ISO, and other styles
5

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, 2023. http://dx.doi.org/10.54932/ryht5065.

Full text
Abstract:
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
APA, Harvard, Vancouver, ISO, and other styles
6

Battams, Nathan, and Margo Hilbrecht. Les répercussions de la COVID-19 : Les mères réfugiées ou nouvellement établies au Canada – Rapport final. L’Institut Vanier de la famille, 2022. http://dx.doi.org/10.61959/mcee6286f.

Full text
Abstract:
De plus en plus d’études tendent à démontrer que la pandémie de COVID-19 a des répercussions inégales sur la santé, le bien-être et les finances des différents types de familles. Or, les nouveaux arrivants et les réfugiés, qui sont souvent confrontés à des situations difficiles, semblent être particulièrement vulnérables au moment de s’établir au pays pour y bâtir une nouvelle vie. Au printemps 2021, l’Institut Vanier de la famille s’est associé au Mothers Matter Centre afin d’étudier les répercussions de la pandémie sur les mères réfugiées ou nouvellement établies au pays qui étaient inscrites aux programmes offerts par le Centre, dans le cadre du sondage « Les répercussions de la COVID-19 : Les mères réfugiées ou nouvellement établies au Canada ». Le Mothers Matter Centre est un organisme national sans but lucratif qui propose des programmes de soutien aux mères isolées sur le plan social et socioéconomiquement vulnérables, ainsi qu’à leur famille. Les conclusions du sondage – réalisé du 13 avril au 13 mai 2021, dont les données ont été analysées par l’Association d’études canadiennes – donnent un aperçu des répercussions de la pandémie sur la santé et le bien-être, sur le travail et les finances des ménages, ainsi que sur les relations des mères inscrites aux programmes HIPPY (Home Instruction for Parents of Preschool Youngsters – Enseignement à domicile pour les parents d’enfants d’âge préscolaire), SMART (Supporting Mothers and Raising Toddlers – Soutien aux mères et à l’éducation des enfants en bas âge) et BTL (Bond to Literacy – Lien vers l’alphabétisation) du Mothers Matter Centre.
APA, Harvard, Vancouver, ISO, and other styles
7

Bourassa Forcier, Mélanie, Derek Dumont, and Hugo Prevosto. Les résidences privées pour aînés (RPA) au Québec : enjeux et opportunités. CIRANO, 2024. http://dx.doi.org/10.54932/juaj9460.

Full text
Abstract:
Au Québec, la pandémie de COVID-19 a mis l’accent sur la situation précaire dans laquelle se trouvent les milieux de vie pour personnes aînées, en particulier celle qui prévaut en centre d’hébergement et de soins de longue durée (CHSLD), en ressources intermédiaires et ressources de type familial (RI-RTF) ainsi qu’en résidences privées pour aînés (RPA). Dans ce rapport, les auteurs s’intéressent aux différents modèles de RPA ainsi qu’aux enjeux qui mettent en péril l’accessibilité à un logement ou à des services en RPA, la qualité de ces services et la survie même de certains modèles de RPA. L’étude s’appuie sur un vaste ensemble de données et d’informations incluant des entrevues et sondages réalisés auprès de gestionnaires, de membres du personnel et de résidents de RPA, et des données statistiques sur les RPA obtenues à la suite de demandes d’accès à l’information effectuées auprès du MSSS et de l’ensemble des CISSS/CIUSSS. Les auteurs concluent que la lourdeur administrative et réglementaire — qui s’accroit considérablement depuis les dernières années — est directement liée aux enjeux présents dans l’offre de services en RPA au Québec et à la fermeture de certaines RPA, en particulier les petites RPA.
APA, Harvard, Vancouver, ISO, and other styles
8

Robert Guertin, Jason, Naomie Chouinard, Chanel Beaudoin Cloutier, et al. Estimation du coût de l’hospitalisation index des patients admis dans une unité de soins des grands brûlés d’un centre hospitalier du Québec selon deux approches méthodologiques. CIRANO, 2024. http://dx.doi.org/10.54932/fxem6229.

Full text
Abstract:
Les traumatismes de brûlures sévères sont reconnus comme étant parmi les plus sévères en termes de morbidités et de mortalité qu’un individu peut vivre. Étant donné la nature des hospitalisations et des soins requis, ces hospitalisations sont reconnues comme étant parmi les plus dispendieuses au sein du système de santé. Les analyses de coûts en santé permettent de quantifier la valeur monétaire des ressources utilisées lors d’un épisode de soins. Historiquement, au Québec, l’approche basée sur le niveau d’intensité relative des ressources utilisées (NIRRU) était l’approche la plus utilisée lorsqu’on désirait examiner le coût d’un séjour hospitalier. Une nouvelle méthode est récemment apparue, soit l’approche basée sur le Coût par parcours de soins et de services (CPSS). À partir de données du Centre de valorisation et d’exploitation de la donnée (SCIENTA) du CHU de Québec-Université Laval portant sur 362 hospitalisations index liées à des traumatismes de brûlures sévères étudiées, les auteurs montrent que les coûts moyens directs estimés selon l’approche du CPSS sont 73 % plus élevés que ceux obtenus selon l’approche du NIRRU. Par contre, il n’est pas possible de déterminer laquelle des deux estimations se rapproche le plus du coût moyen réel. Aussi, il n’est pas possible d’exclure le risque que les différences observées entre les coûts estimés selon les approches méthodologiques soient spécifiques aux populations et conditions étudiées.
APA, Harvard, Vancouver, ISO, and other styles
9

Dudley, J. P., and S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Full text
Abstract:
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
APA, Harvard, Vancouver, ISO, and other styles
10

Saulais, Laure, and Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, 2022. http://dx.doi.org/10.54932/ziga3839.

Full text
Abstract:
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!