Academic literature on the topic 'Systèmes des données echantillones'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Systèmes des données echantillones.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Systèmes des données echantillones"

1

Gerard, François-Marie. "Indicateur synthétique de la qualité des systèmes éducatifs des pays de l’OCDE : comparaison des résultats 2015 et 2018." Journal of Quality in Education 13, no. 22 (2023): 29–51. http://dx.doi.org/10.37870/joqie.v13i22.390.

Full text
Abstract:
L’indicateur synthétique de qualité (ISQ) des systèmes éducatifs a été développé pour la première fois sur la base de données recueillies en 2012 (Gerard, Hugonnier et Varin, 2017). Il se fondait sur cinq critères : l’efficacité, l’efficience et l’équité des systèmes, l’engagement des élèves et celui des enseignant·e·s. Une deuxième évaluation de l’ISQ a été réalisée à partir de données relatives à 2015 (Gerard, Hugonnier et Varin, 2018).
 Grâce à une troisième évaluation de l’ISQ portant sur des données établies en 2018, la validité de trois importantes hypothèses peut être vérifiée :
 1) les systèmes éducatifs n’évoluent pas tous au même rythme ni dans le même sens ;
 2) l’ajout de l’engagement des parents en tant que sixième critère a un impact sur la qualité des systèmes éducatifs ;
 3) l’ISQ est un indicateur valide et fiable.
 L’objet de cet article est de tester la validité de ces trois hypothèses.
APA, Harvard, Vancouver, ISO, and other styles
2

Mosio, D., C. Betrancourt, F. Lefebvre, D. Boquet, P. Pronier, and H. Verhaeghe. "Le traitement automatisé des données d’autosurveillance des systèmes d’assainissement." Techniques Sciences Méthodes, no. 5 (May 2019): 101–10. http://dx.doi.org/10.1051/tsm/201905101.

Full text
Abstract:
L’autosurveillance des systèmes d’assainissement est déployée sur le bassin Artois-Picardie, pour les stations de traitement des eaux usées et pour les réseaux d’assainissement. Les maîtres d’ouvrage et/ou leurs exploitants produisent des données de surveillance et les transmettent à l’agence via un site FTP. Des tests d’intégration des données ont été développés pour interdire l’intégration des fichiers de données incorrects ou incomplets et en informent le maître d’ouvrage par un message électronique. L’arrêté du 21 juillet 2015 précise le rôle exact des agences de l’eau dans les deux domaines de la qualification et de l’expertise de ces données. Pour faire face à ses obligations, l’agence de l’eau a développé une gamme d’applications informatiques qui automatisent en grande partie le traitement des données. L’analyse et l’expertise des données permettent de mettre rapidement en évidence les points forts et les points faibles du système global d’assainissement. Fiables, reproductibles, annuelles ou pluriannuelles et évolutives, les expertises produites permettent à l’agence d’orienter la discussion avec les maîtres d’ouvrage, et de planifier ses interventions en les priorisant dans son 11e programme. En présentant les résultats de ses expertises aux maîtres d’ouvrage, l’agence contribue à leur faire s’approprier les méthodes et pratiques qui concourent au traitement de leurs données.
APA, Harvard, Vancouver, ISO, and other styles
3

Collin, Simon, and Clémentine Hennetier. "Gouverner l’école à l’heure de l’IA : synthèse des connaissances sur la gouvernance scolaire basée sur les données." Médiations et médiatisations, no. 18 (October 30, 2024): 43–66. http://dx.doi.org/10.52358/mm.vi18.412.

Full text
Abstract:
Sous l’effet des développements récents de l’intelligence artificielle (IA), la gouvernance scolaire basée sur les données connaît des mutations profondes sur le plan de sa mise en œuvre, dont les conséquences sont difficiles à anticiper en détail. C’est notamment le cas pour les systèmes scolaires, comme celui du Québec, qui ont embarqué récemment dans la gouvernance scolaire basée sur les données, et dont les tenants et aboutissants sont en grande partie à venir. D’autres systèmes scolaires, notamment ceux des pays anglo-saxons et de certains pays d’Europe de l’Ouest, sont davantage avancés dans cette voie. Les études qui s’y penchent offrent des prises intéressantes pour, d’une part, mieux comprendre les mutations actuelles de la gouvernance scolaire ainsi que ses enjeux et ses conséquences sur les systèmes scolaires et, d’autre part, orienter les gestionnaires dans leur mise en œuvre de la gouvernance scolaire basée sur les données, ce qui est opportun dans le cas du système scolaire québécois, puisqu’il en est à ses débuts. Aussi, ce texte a pour objectif de réaliser une synthèse des connaissances sur la gouvernance scolaire basée sur les données à l’heure de l’IA.
APA, Harvard, Vancouver, ISO, and other styles
4

Orpana, Heather M., Aganeta Enns, Megan Striha, et al. "Cadre conceptuel pour le suivi des méfaits liés aux substances effectué par les autorités de santé publique." Promotion de la santé et prévention des maladies chroniques au Canada 45, no. 2 (2025): 84–93. https://doi.org/10.24095/hpcdp.45.2.02f.

Full text
Abstract:
Résumé En raison de la crise d’intoxication aux drogues qui sévit au Canada et ailleurs, il est plus que jamais nécessaire de disposer de données à jour et pertinentes pour orienter les politiques et les programmes visant à atténuer les méfaits liés aux substances. Bien qu’il existe un certain nombre de systèmes de suivi ciblant des composantes précises de la consommation de substances et des méfaits qui en découlent au Canada, ces systèmes ne sont pas guidés par un cadre conceptuel global. Cet exposé de politique fondé sur des données probantes décrit l’élaboration d’un cadre conceptuel pour le suivi des méfaits liés aux substances effectué par les autorités de santé publique. Ce cadre comprend quatre thèmes principaux (facteurs de risque et de protection, consommation de substances, systèmes de soutien à la santé, méfaits et bienfaits liés à la consommation de substances), quatre thèmes transversaux (parcours de vie, équité, stigmatisation de la consommation de substances, santé et maladie mentale et physique) et deux considérations générales (utilisation respectueuse des données et consultation). Ce cadre est utilisable pour organiser les activités déjà en place et pour cerner les lacunes en matière de données et de suivi en vue d’un développement ultérieur.
APA, Harvard, Vancouver, ISO, and other styles
5

Boulanger, Virginie, Étienne Poirier, Anne MacLaurin, and Caroline Quach. "Divergences entre les données administratives sur les infections associées aux soins de santé et les données issues de la surveillance active au Canada." Relevé des maladies transmissibles au Canada 48, no. 1 (2022): 4–18. http://dx.doi.org/10.14745/ccdr.v48i01a02f.

Full text
Abstract:
Contexte : Bien que le Canada dispose à la fois d’un système national de surveillance active et de données administratives pour la surveillance passive des infections associées aux soins de santé (IASS), chacun des deux systèmes présente des forces et des faiblesses au niveau de la collecte et de la communication des données. La surveillance active et la surveillance passive fonctionnent de manière indépendante, ce qui donne parfois des résultats divergents. Pour comprendre les divergences qui existent entre les données administratives sur la santé et les données issues de la surveillance active, un examen de la portée a été réalisé. Méthodes : Des recherches ont été menées dans les bases de données Medline, Embase et Cumulative Index to Nursing and Allied Health Literature, ainsi que dans la littérature grise pour trouver des études en anglais et en français évaluant l’utilisation de données administratives, seules ou en comparaison avec les données issues de la surveillance traditionnelle et réalisées au Canada entre 1995 et le 2 novembre 2020. Après avoir extrait les renseignements pertinents des articles sélectionnés, un résumé descriptif des résultats a été présenté, accompagné de suggestions pour améliorer les systèmes de surveillance, dans le but d’optimiser la qualité globale des données. Résultats : Seize articles répondaient aux critères d’inclusion, dont douze études observationnelles et quatre revues systématiques. Ces études ont démontré que l’utilisation d’une seule source de données administratives n’était pas assez précise pour la surveillance des IASS, par rapport à la surveillance active traditionnelle. Cependant, la combinaison de différentes sources de données ou la combinaison de données administratives et de données issues de la surveillance active en améliore la précision. Les systèmes de surveillance électronique peuvent également renforcer la surveillance en augmentant la capacité à détecter les IASS potentielles. Conclusion : Bien que la surveillance active des IASS ait produit les résultats les plus précis et demeure la norme d’excellence en la matière, l’intégration des données issues de la surveillance active et passive peut être optimisée. Les données administratives peuvent être utilisées pour renforcer la surveillance active traditionnelle. De futures études sont nécessaires pour évaluer la faisabilité et les avantages des solutions potentielles proposées pour l’utilisation des données administratives pour la surveillance et la déclaration des IASS au Canada.
APA, Harvard, Vancouver, ISO, and other styles
6

Lhoutellier, Pascal. "Données, technologies et systèmes d’information de sécurité." Cahiers de la sécurité et de la justice N° 55, no. 2 (2022): 156–65. https://doi.org/10.3917/csj.055.0156.

Full text
Abstract:
L’entrée dans l’ère numérique a fait émerger la donnée comme un élément structurant des actions de sécurité au sein de l’Union européenne. Dans le temps de la PFUE, de nombreux projets concernant son utilisation dans ce domaine sont ouverts : modernisation des systèmes d’information, optimisation des échanges entre les États membres, renforcement des capacités d’Europol et développement de nouveaux outils d’analyse utilisant notamment l’intelligence artificielle. Il s’agit cependant de s’assurer que les services disposent du niveau de technologie pour être en capacité de capter et d’exploiter la donnée et ce dans un cadre respectueux des droits fondamentaux qu’il convient de construire. Pour répondre au défi de l’acceptabilité sociale qui sous-tend les débats sur ces questions, l’Union européenne doit travailler à un pacte de confiance pour la sécurité à l’ère numérique. L’instauration de cette confiance commande de maintenir l’humain au cœur des décisions et de penser à l’aide de la donnée plutôt que par la donnée.
APA, Harvard, Vancouver, ISO, and other styles
7

Coupez, François. "Conformité et sécurité : un cran au-dessus ?" Revue Cyber & Conformité N° 3, no. 3 (2021): 28–29. http://dx.doi.org/10.3917/cyco.003.0030.

Full text
Abstract:
Ayant pendant longtemps suivi des chemins parallèles, sécurité des systèmes d’information et conformité, notamment en matière de protection des données, sont deux concepts qui sont aujourd’hui fortement liés, que ce soit par la réglementation ou les régulateurs. La sécurité des systèmes d’information faisant régulièrement la une des journaux, la « culture sécurité » infusant dans tous les secteurs économiques, les régulateurs ont changé de vision et intègrent cet élément de façon cruciale dans leurs audits des entreprises dont ils ont la supervision. Pour la CNIL par exemple, la sécurité est un angle d’audit d’autant plus important que plusieurs facteurs se coagulent : l’afflux d’anciens de l’ANSSI dans ses rangs a accru sa compétence, le RGPD s’inscrit dans la droite ligne de la loi du 6 janvier 1978 et se fonde peu ou prou sur la sécurisation des systèmes d’information, la protection des données ne peut être assurée que si la sécurité des systèmes d’information et des infrastructures est elle-même renforcée, etc.
APA, Harvard, Vancouver, ISO, and other styles
8

Dupuy-Chessa, Sophie, Sophie Lambert-Lacroix, and Gaëlle Blanco-Lainé. "Un parcours Big Data en alternance dans une licence professionnelle." Statistique et Enseignement 7, no. 1 (2016): 121–26. https://doi.org/10.3406/staso.2016.1344.

Full text
Abstract:
L’IUT2 de Grenoble proposera à la rentrée prochaine un parcours Big Data au sein d’une Licence Professionnelle en informatique « Systèmes d’information et Gestion des données ». La formation qui aura lieu en alternance, visera le métier d’analyste des données, c’est-à-dire la personne qui collecte et organise les données. Elle s’appuie sur un bassin industriel large et varié et un contexte académique pluridisciplinaire.
APA, Harvard, Vancouver, ISO, and other styles
9

Murnaghan, D., W. Morrison, EJ Griffith, et al. "Étude sur les systèmes d'échange des connaissances pour la santé des jeunes et la prévention des maladies chroniques : étude de cas menée dans trois provinces." Maladies chroniques et blessures au Canada 33, no. 4 (2013): 290–300. http://dx.doi.org/10.24095/hpcdp.33.4.07f.

Full text
Abstract:
Introduction Les équipes de recherche ont adopté un modèle d'étude de cas utilisant un cadre d'analyse commun dans le but d'étudier trois systèmes provinciaux (Île-du-Prince-Édouard, Nouveau-Brunswick et Manitoba) d'échange des connaissances. Ces trois systèmes visent à générer et utiliser des données probantes lors de l'élaboration des politiques, de la planification des programmes et des évaluations afin d'améliorer la santé des jeunes et de prévenir les maladies chroniques. Méthodologie Nous avons appliqué un modèle d'étude de cas pour examiner en profondeur les leçons apprises (c.-à-d. les principales conditions ou les principaux processus contribuant au développement de la capacité d'échange des connaissances) à l'aide d'une méthode de collecte de données multiples. Les activités de gestion, de synthèse et d'analyse des données ont été simultanées, itératives et continues. Les leçons apprises ont été classées en sept catégories. Résultats L'échange des connaissances est un processus complexe, qui exige des champions et des partenariats de collaboration, une adaptation aux divers intervenants et qui exige aussi que les régions soient préparées. Analyse Dans l'ensemble, les systèmes d'échange des connaissances peuvent accroître la capacité d'échange et d'utilisation des données probantes en allant au-delà de la collecte et de la transmission de données. Leurs aires d'influence sont l'établissement de nouveaux partenariats, des activités élargies d'échange des connaissances et le perfectionnement des approches axées sur les politiques et les pratiques liées à la santé des jeunes et à la prévention des maladies chroniques.
APA, Harvard, Vancouver, ISO, and other styles
10

Bélanger, Gérard. "L’univers du secteur public et les règles comptables utilisées dans les systèmes statistiques canadiens." L'Actualité économique 63, no. 4 (2009): 402–23. http://dx.doi.org/10.7202/601429ar.

Full text
Abstract:
Résumé Après avoir dressé un résumé des principales caractéristiques de quatre systèmes canadiens de présentation des données sur le secteur public, le texte indique les principales difficultés reliées à la délimitation de l’univers du secteur public ou à l’établissement de ses frontières et à la division entre les deux catégories, administrations publiques — entreprises publiques. L’interprétation des données sur les recettes et les dépenses du secteur public est toutefois rendue difficile par le manque d’information fournie par les systèmes statistiques existants. Le problème central de l’analyse des activités gouvernementales demeure finalement la mesure du volume des services.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Systèmes des données echantillones"

1

Falcón, Prado Ricardo. "Active vibration control of flexible structures under input saturation through delay-based controllers and anti-windup compensators." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG042.

Full text
Abstract:
Dans ce travail, on traite le problème du commande actif des vibrations robustes pour une structure mécanique flexible à travers des techniques pour des systèmes à dimensions infinis et finis. Les approches abordées sont réglées pour une commande à retour de sortie basée sur une commande aux actions retardées proportionelles, par une approche basée sur quasipolynomials,et une commande synthétisée par la méthode H∞avec une approche par LMIs. Le but c’est l’analyse de ses capabilités pour amortisser les modes vibratoires dans une bande passante d’intérêt, et éviter les effets dénommés de phénomène “spillover”. Cettes commandes sont sythétisés à travers d’un modèle de dimensions finies,dérivé à partir d’un analyse des dimensions finies des structures mécaniques, combiné avec des methodes de réduction.Les structures flexibles envisagées ici sont, d’abord,une poutre flexible d’aluminium à la configuration Euler-Bernoulli, dont un bout est encastrée et l’autre libre, deuxièmement,une membrane axisymmetrique. Chaque système est instrumenté d’un capteur et d’un actionneur piézoélectrique,ils sont bien soumises à chaque coté des structures et elles sont bien placées. Notre intention est d’examiner les performances susmentionnés par les environnements de simulation numérique et la mise en oeuvre à titre expérimental<br>In this work, the problem of active vibration control of flexible mechanical structures is addressed through infinite and finite dimensional techniques. The compared approaches are adjusted for an output feedback controller based on delayed proportional actions,through a quasipolynomial-based approach, and an optimalH∞ controller design computed with an LMI approach.They are shown in order to analyze their capabilities to damp some vibrational modes in the frequency band with of interest, and to avoid the so called “spillover”phenomenon. These controllers are synthetized through a finite dimensional model, derived from a finite element analysis of the mechanical structure, combined with some reduction methods.The flexible structures considered here are, firstly, aflexible aluminium beam in the Euler-Bernoulli configuration,and secondly, an axysimmetric membrane. Bothof them are equipped with two piezoelectric patches that are bounded and collocated on each face of the structure.We intend to examine and discuss the aforementioned performances in both simulation and experimental environments
APA, Harvard, Vancouver, ISO, and other styles
2

Jawad, Mohamed. "Confidentialité de données dans les systèmes P2P." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00638721.

Full text
Abstract:
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. ex., médicales ou de recherche) deviennent de plus en plus populaires a cause de l'augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. ex., passage a l'échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. ex., pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l'analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nommé PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d'attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, basé sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs.
APA, Harvard, Vancouver, ISO, and other styles
3

Janyene, Abderrahmane. "Validation de données des systèmes dynamiques linéaires." Nancy 1, 1987. http://www.theses.fr/1987NAN10190.

Full text
Abstract:
Étude d'une méthode de validation de données dans les unités de production industrielle dont le fonctionnement est caractérisé par des systèmes dynamiques linéaires, ceci en présence de toutes les mesures de grandeurs, dans un 1**(ER) temps, et avec des mesures manquantes, ensuite
APA, Harvard, Vancouver, ISO, and other styles
4

Abdali, Abdelkebir. "Systèmes experts et analyse de données industrielles." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0032.

Full text
Abstract:
L'analyse du fonctionnement des Systèmes de Production Industrielle s'appuie sur des informations de natures diverses. Une bonne partie d'entre elles se présentant sous forme numérisée, on leur applique des méthodes d'analyse des données dont les résultats doivent être confrontés, puis interprétés à l'aide des autres connaissances. Notre travail s'insère dans le cadre de l'application des techniques de l'Intelligence Artificielle à la Statistique. Il vise en particulier à étudier la faisabilité et le développement d'un Système Expert Statistique dans le domaine des Systèmes de Production Industrielle. Nous avons élaboré ALADIN (Aide Logicielle pour l'Analyse de Données Industrielles), un système destiné à aider un utilisateur non-spécialiste à analyser des données recueillies sur des procédés industriels. L'architecture de ce système est flexible et allie aspect qualitatif (connaissances sur les procédés industriels et connaissances sur les méthodes statistiques et d'analyse de données) et aspect quantitatif (collection de programmes d'analyse). Pour l'instant, nous nous sommes limités aux problèmes d'Analyse en Composantes Principales. Outre l'aspect industriel, ALADIN présente l'avantage de fournir une assistance au niveau de chacun des nombreux maillons de la conduite d'une analyse de données et particulièrement en amont de l'analyse proprement dite i. E. Lors de la phase de prétraitement et de préparation des données: cette étape, toujours nécessaire compte tenu de la nature des mesures, est en effet généralement longue et fastidieuse<br>To analyses industrial process behavio, many kinds of information are needed. As tye ar mostly numerical, statistical and data analysis methods are well-suited to this activity. Their results must be interpreted with other knowledge about analysis prcess. Our work falls within the framework of the application of the techniques of the Artificial Intelligence to the Statistics. Its aim is to study the feasibility and the development of statistical expert systems in an industrial process field. The prototype ALADIN is a knowledge-base system designed to be an intelligent assistant to help a non-specialist user analyze data collected on industrial processes, written in Turbo-Prolong, it is coupled with the statistical package MODULAD. The architecture of this system is flexible and combing knowledge with general plants, the studied process and statistical methods. Its validation is performed on continuous manufacturing processes (cement and cast iron processes). At present time, we have limited to principal Components analysis problems
APA, Harvard, Vancouver, ISO, and other styles
5

Tos, Uras. "Réplication de données dans les systèmes de gestion de données à grande échelle." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30066/document.

Full text
Abstract:
Ces dernières années, la popularité croissante des applications, e.g. les expériences scientifiques, Internet des objets et les réseaux sociaux, a conduit à la génération de gros volumes de données. La gestion de telles données qui de plus, sont hétérogènes et distribuées à grande échelle, constitue un défi important. Dans les systèmes traditionnels tels que les systèmes distribués et parallèles, les systèmes pair-à-pair et les systèmes de grille, répondre à des objectifs tels que l'obtention de performances acceptables tout en garantissant une bonne disponibilité de données constituent des objectifs majeurs pour l'utilisateur, en particulier lorsque ces données sont réparties à travers le monde. Dans ce contexte, la réplication de données, une technique très connue, permet notamment: (i) d'augmenter la disponibilité de données, (ii) de réduire les coûts d'accès aux données et (iii) d'assurer une meilleure tolérance aux pannes. Néanmoins, répliquer les données sur tous les nœuds est une solution non réaliste vu qu'elle génère une consommation importante de la bande passante en plus de l'espace limité de stockage. Définir des stratégies de réplication constitue la solution à apporter à ces problématiques. Les stratégies de réplication de données qui ont été proposées pour les systèmes traditionnels cités précédemment ont pour objectif l'amélioration des performances pour l'utilisateur. Elles sont difficiles à adapter dans les systèmes de cloud. En effet, le fournisseur de cloud a pour but de générer un profit en plus de répondre aux exigences des locataires. Satisfaire les attentes de ces locataire en matière de performances sans sacrifier le profit du fournisseur d'un coté et la gestion élastiques des ressources avec une tarification suivant le modèle 'pay-as-you-go' d'un autre coté, constituent des principes fondamentaux dans les systèmes cloud. Dans cette thèse, nous proposons une stratégie de réplication de données pour satisfaire les exigences du locataire, e.g. les performances, tout en garantissant le profit économique du fournisseur. En se basant sur un modèle de coût, nous estimons le temps de réponse nécessaire pour l'exécution d'une requête distribuée. La réplication de données n'est envisagée que si le temps de réponse estimé dépasse un seuil fixé auparavant dans le contrat établi entre le fournisseur et le client. Ensuite, cette réplication doit être profitable du point de vue économique pour le fournisseur. Dans ce contexte, nous proposons un modèle économique prenant en compte aussi bien les dépenses et les revenus du fournisseur lors de l'exécution de cette requête. Nous proposons une heuristique pour le placement des répliques afin de réduire les temps d'accès à ces nouvelles répliques. De plus, un ajustement du nombre de répliques est adopté afin de permettre une gestion élastique des ressources. Nous validons la stratégie proposée par une évaluation basée sur une simulation. Nous comparons les performances de notre stratégie à celles d'une autre stratégie de réplication proposée dans les clouds. L'analyse des résultats obtenus a montré que les deux stratégies comparées répondent à l'objectif de performances pour le locataire. Néanmoins, une réplique de données n'est crée, avec notre stratégie, que si cette réplication est profitable pour le fournisseur<br>In recent years, growing popularity of large-scale applications, e.g. scientific experiments, Internet of things and social networking, led to generation of large volumes of data. The management of this data presents a significant challenge as the data is heterogeneous and distributed on a large scale. In traditional systems including distributed and parallel systems, peer-to-peer systems and grid systems, meeting objectives such as achieving acceptable performance while ensuring good availability of data are major challenges for service providers, especially when the data is distributed around the world. In this context, data replication, as a well-known technique, allows: (i) increased data availability, (ii) reduced data access costs, and (iii) improved fault-tolerance. However, replicating data on all nodes is an unrealistic solution as it generates significant bandwidth consumption in addition to exhausting limited storage space. Defining good replication strategies is a solution to these problems. The data replication strategies that have been proposed for the traditional systems mentioned above are intended to improve performance for the user. They are difficult to adapt to cloud systems. Indeed, cloud providers aim to generate a profit in addition to meeting tenant requirements. Meeting the performance expectations of the tenants without sacrificing the provider's profit, as well as managing resource elasticities with a pay-as-you-go pricing model, are the fundamentals of cloud systems. In this thesis, we propose a data replication strategy that satisfies the requirements of the tenant, such as performance, while guaranteeing the economic profit of the provider. Based on a cost model, we estimate the response time required to execute a distributed database query. Data replication is only considered if, for any query, the estimated response time exceeds a threshold previously set in the contract between the provider and the tenant. Then, the planned replication must also be economically beneficial to the provider. In this context, we propose an economic model that takes into account both the expenditures and the revenues of the provider during the execution of any particular database query. Once the data replication is decided to go through, a heuristic placement approach is used to find the placement for new replicas in order to reduce the access time. In addition, a dynamic adjustment of the number of replicas is adopted to allow elastic management of resources. Proposed strategy is validated in an experimental evaluation carried out in a simulation environment. Compared with another data replication strategy proposed in the cloud systems, the analysis of the obtained results shows that the two compared strategies respond to the performance objective for the tenant. Nevertheless, a replica of data is created, with our strategy, only if this replication is profitable for the provider
APA, Harvard, Vancouver, ISO, and other styles
6

Voisard, Agnès. "Bases de données géographiques : du modèle de données à l'interface utilisateur." Paris 11, 1992. http://www.theses.fr/1992PA112354.

Full text
Abstract:
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
APA, Harvard, Vancouver, ISO, and other styles
7

Jaff, Luaï. "Structures de Données dynamiques pour les Systèmes Complèxes." Phd thesis, Université du Havre, 2007. http://tel.archives-ouvertes.fr/tel-00167104.

Full text
Abstract:
Mon travail porte sur la dynamique de certaines structures de données et sur les systèmes complexes. Nous avons présenté une approche de la combinatoire des tableaux et des permutations basée sur la dynamique. Cette approche, que nous appelons (Structures de Données Dynamiques) nous ouvre<br />la porte vers des applications en économie via les systèmes complexes.<br /><br />Les structures de données que nous avons étudiées sont les permutations qui ne contiennent pas de sous-suite croissante de longueur plus que deux, les tableaux de Young standards rectangles à deux lignes, les mots de Dyck et les codes qui lient ces structures de données.<br /><br />Nous avons proposé un modèle économique qui modélise le bénéfice d'un compte bancaire dont l'énumération des configurations possible se fait à l'aide d'un code adapté. Une seconde application<br />concerne l'évolution de populations d'automate génétique . Ces populations sont étudiées par analyse spectrale et des expérimentations sont données sur des automates probabilistes dont l'évolution conduit à contrôler la dissipation par auto-régulation.<br /><br />L'ensemble de ce travail a pour ambition de donner quelques outils calculatoires liés à la dynamique de structures de données pour analyser la complexité des systèmes.
APA, Harvard, Vancouver, ISO, and other styles
8

Delot, Thierry. "Accès aux données dans les systèmes d'information pervasifs." Habilitation à diriger des recherches, Université de Valenciennes et du Hainaut-Cambresis, 2009. http://tel.archives-ouvertes.fr/tel-00443664.

Full text
Abstract:
Le développement des réseaux sans fil et des dispositifs mobiles (ordinateurs portables, PDA communicants, capteurs, etc.) constaté ces dernières années entraine de profondes mutations des applications et des services proposés aux utilisateurs. Nous entrons aujourd'hui dans l'ère de l'informatique pervasive avec pour enjeu de proposer des services et de rendre les données disponibles n'importe où et n'importe quand. Le système d'information n'échappe pas à cette évolution et devient lui aussi pervasif. L'information y est stockée partout, dans différents formats et sur différents types de terminaux interconnectés. Notre travail se concentre sur les problèmes liés à l'accès aux données dans les systèmes d'information pervasifs. Ces systèmes, dits « ambiants », évoluent dans un contexte particulièrement dynamique du fait de la mobilité des utilisateurs et des sources de données qui peuvent apparaître et disparaître à tout moment. Les techniques traditionnellement utilisées pour accéder aux données, dans les bases de données réparties ou les systèmes pair-à-pair par exemple, sont ainsi totalement remises en cause. En effet, la mobilité des sources de données et les possibles déconnexions rendent impossibles la gestion et l'exploitation d'un schéma de placement décrivant la localisation des différentes sources de données accessibles. Dans ce contexte, nous proposons donc de nouvelles techniques d'accès dédiées aux systèmes d'information pervasifs. Plus précisément, nos contributions concernent : - Un modèle d'évaluation et d'optimisation de requêtes dans les environnements pair-à-pair hybrides, associant terminaux mobiles et serveurs fixes, adapté à la mobilité des terminaux et à leurs ressources restreintes (e.g., énergie) - Des techniques de partage d'informations dans les environnements pair-à-pair mobiles, où plus aucune infrastructure fixe n'est exploitable et où les échanges de données reposent sur des interactions directes entre les terminaux. Ces travaux ont été appliqués au contexte de la communication inter-véhicules. - Enfin, notre dernière contribution concerne la proposition de mécanismes d'auto-adaptation permettant à un évaluateur de requêtes de se reconfigurer dynamiquement en fonction des changements de contexte (e.g., connectivité, mobilité, autonomie, etc.), particulièrement fréquents dans les systèmes pervasifs. Nos travaux ont été réalisés dans le cadre de différents projets et ont conduit à la soutenance de plusieurs thèses de doctorat et masters recherche.
APA, Harvard, Vancouver, ISO, and other styles
9

Heraud, Nicolas. "Validation de données et observabilité des systèmes multilinéairesé." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL082N.

Full text
Abstract:
Le travail présenté concerne la validation de données et l'observabilité des systèmes multilinéaires dans le but d'effectuer le diagnostic de l'instrumentation d'une installation. Après un rappel sur la validation de données et l'observabilité des systèmes linéaires, ces notions sont étendues aux systèmes multilinéaires. Différentes méthodes, telles que le calcul hiérarchisé, la linéarisation des contraintes et les fonctions de pénalisation sont présentées pour l'estimation des valeurs vraies en présence de mesures manquantes. Ces différentes méthodes sont comparées et un algorithme récursif d'estimations utilisant les techniques de linéarisation des contraintes et des fonctions de pénalisation est presenté. La validation de données ne peut être effectuée que sur des systèmes observables. Nous avons donc développé une méthodologie originale, basée sur l'emploi de diagrammes arborescents, qui permet d'extraire les équations du procédé correspondant à sa partie observable. La technique de validation de données a été appliquée avec succès sur un procédé complexe de traitement de minerai d'uranium de la société total compagnie minière France. L'installation partiellement instrumentée permet de disposer de mesures de flux volumique, de masse volumique, de teneur d'uranium dans la phase solide et liquide des flux. Outre l'obtention de données cohérentes, l'analyse des résultats de la validation permet de détecter d'éventuels défauts sur l'instrumentation<br>The aim of this study is to investigate data validation and observability of miltilinear systems to diagnose instrumentation in a process. Data validation and observability in linear systems are first reviewed and these notions are extended to multilinear systems. Differents methods such as hierarchical computation, constraint linearization and penalization functions, are presented to estimate true values when some values are lacking. After comparing the different methods, a recurrent calculus of estimates using constraint linearization and penalization functions is developed. An observable system is required in order to perform data validation. Thus, we developed an original method, based on arborescent diagrams. The technique of data validation has been successfully applied to a complex uranium processing plant owned by the French company Total Compagnie Minière France. On this partially instrumented process, measurements for volumic flow, density and uranium in both solid and liquid phase are available. The analysis allows first to obtain coherent date. Furthemore, it can be used to detect sensors faults
APA, Harvard, Vancouver, ISO, and other styles
10

Meyer, Michel. "Validation de données sur des systèmes incomplètement observés." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT032G.

Full text
Abstract:
Cette etude est consacree a la validation de donnees par equilibrage de bilans matiere. La methodologie decrite dans ce memoire peut etre appliquee a tout procede chimique, avec ou sans reaction chimique, en regime permanent. Apres avoir mis en evidence le caractere ineluctable des erreurs de mesure dans une presentation generale du probleme, nous abordons successivement les points suivants: le classement selon l'observabilite et la redondance, les methodes numeriques utilisees et le diagnostic sur l'etat des capteurs. Le classement selon l'observabilite et la redondance des debits et fractions massiques est realise par l'application de nouveaux algorithmes bases sur des concepts issus de la theorie des graphes. Ces methodes permettent egalement la mise en evidence des equations de redondance. Dans le chapitre suivant, l'accent est mis sur les methodes numeriques utilisees. L'exploitation de la vacuite des systemes linearises est mise en exergue. La derniere phase, basee sur des tests statistiques, permet un diagnostic sur le fonctionnement des capteurs d'un procede. Une etude comparative de differentes methodes est realisee. Dans le dernier chapitre, une breve description du logiciel integrant ces differentes techniques est faite. L'efficacite du programme est testee sur deux exemples industriels
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Systèmes des données echantillones"

1

Delobel, Claude. Bases de données: Des systèmes relationnels aux systèmes à objets. InterEditions, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Pichat, Étienne. Ingénierie des données: Systèmes d'information, modèles et bases de données. Masson, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Korth, Henry F. Systèmes de gestion des bases de données. McGraw-Hill, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Abraham, Silberschatz, ed. Systèmes de gestion des bases de données. McGraw-Hill, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 3rd ed. Eyrolles, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 5th ed. Eyrolles, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Gardarin, G. Bases de données: Les systèmes et leurs langages. 7th ed. Eyrolles, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Carrier, Pierre. Bases de données dans le développement de systèmes. G. Morin, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Gardarin, Georges. Bases de données relationnelles : analyse et comparaison des systèmes. 3rd ed. Eyrolles, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Battu, Daniel Pierre. Réseaux de télécommunications et transmission de données. Eyrolles, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Systèmes des données echantillones"

1

Goetz, Christophe, Aurélien Zang, and Nicolas Jay. "Apports d’une méthode de fouille de données pour la détection des cancers du sein incidents dans les données du programme de médicalisation des systèmes d’information." In Informatique et Santé. Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_17.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Calastrenc, Carine, François Baleux, Nicolas Poirier, et al. "Inspecter les montagnes autrement." In Dynamiques des peuplements, des territoires et des paysages. APDCA, 2023. https://doi.org/10.4000/147p8.

Full text
Abstract:
Il aura fallu plusieurs décennies d’interactions et de dialogue entre sciences humaines et sciences de l’environnement, et une somme d’avancées méthodologiques pour que les espaces d’altitude soient envisagés autrement qu’immuables et atones. Soumis à des questionnements interdisciplinaires intégrés, ils révèlent non pas une, mais des histoires et des dynamiques complexes. En historicisant les espaces de montagne, c’est le point de vue global sur les sociétés que l’on inverse et c’est la totalité des systèmes valléens qui sont reconsidérés. Force est de constater que les équipes impliquées dans ces recherches se trouvent confrontées au problème de l’acquisition de l’information primaire. Préalable indispensable à toute recherche en archéologie, la prospection en haute montagne a des spécificités et des enjeux méthodologiques particuliers. Comment aller au-delà du seuil du visible en surface (de murs conservés en élévation aux microreliefs) pour enrichir l’information avec les infrastructures faites en matériaux périssables ou recouvertes de végétation ? Comment systématiser l’acquisition pour arriver à traiter, plus vite, de plus grands territoires ?Les avancées technologiques (photogrammétrie, thermographie, Lidar, géoradar, magnétomètre, analyse chimique des sols), la diversification et la miniaturisation des capteurs, la démocratisation et le développement des drones aériens, qui permettent la répétabilité des acquisitions, ouvrent la réflexion à la mise en place de nouvelles procédures d’acquisition de l’information archéologique. Les outils de traitement des données, le travail en ergonomie des logiciels et l’ouverture du champ des possibles qu’offre l’intelligence artificielle permettent d’entrevoir les futures possibilités d’optimisation de la détection des vestiges archéologiques en milieux d’altitude.
APA, Harvard, Vancouver, ISO, and other styles
3

COCHARD, Gérard-Michel, and Mhand HIFI. "Systèmes d’encryptage." In Mathématiques du numérique 1. ISTE Group, 2025. https://doi.org/10.51926/iste.9194.ch8.

Full text
Abstract:
Ce chapitre expose les principales méthodes de chiffrement (d’encryptage) des données. Après un rappel des méthodes standards de substitution et de transposition, nous détaillerons deux dispositifs actuels : le système DES à clé secrète et le système RSA à clé publique (où nous retrouverons l'utilisation des nombres premiers). La méthode des courbes elliptiques sera également présentée. Le chapitre se terminera sur les espoirs de l’encryptage quantique.
APA, Harvard, Vancouver, ISO, and other styles
4

"Concepts de base de données." In Le développement de systèmes d'information. Presses de l'Université du Québec, 2013. http://dx.doi.org/10.1515/9782760536999-018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

"Normalisation des données et formes normales." In Le développement de systèmes d'information. Presses de l'Université du Québec, 2013. http://dx.doi.org/10.1515/9782760536999-019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

RHEINDT, Sven, Akshay SRIVATSA, Oliver LENKE, Lars NOLTE, Thomas WILD, and Andreas HERKERSDORF. "Relever le défi de la localité des données dans les MPSoC." In Systèmes multiprocesseurs sur puce 1. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch5.

Full text
Abstract:
Les latences d’accès aux données et les goulots d’étranglement de la bande passante représentent des facteurs limitatifs majeurs pour l’efficacité de calcul des architectures multi-cœurs et pluri-cœurs. Ce chapitre porte sur deux approches visant à garantir que les données à traiter et les entités de calcul restent limitées dans l’espace : la cohérence de cache par région et l’accélération proche-mémoire.
APA, Harvard, Vancouver, ISO, and other styles
7

FALSAFI, Babak. "Architecture de serveur pour un centre de données post-Moore." In Systèmes multiprocesseurs sur puce 2. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch6.

Full text
Abstract:
L’émergence des centres de données est une réponse au changement de paradigme informatique vers l’informatique en nuage. Ce chapitre présente les approches récentes et prometteuses de la nouvelle conception logicielle/matérielle des serveurs des centres de données du futur, permettant d’intégrer l’hétérogénéité dans le silicium et facilitant la mise à l’échelle de plate-formes avec les matrices de réseau émergentes.
APA, Harvard, Vancouver, ISO, and other styles
8

PROVAN, Gregory. "Diagnostic des systèmes stochastiques." In Diagnostic et commande à tolérance de fautes 1. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch4.

Full text
Abstract:
La prise en compte de l’incertitude est cruciale pour la détection précise des défauts. L'incertitude peut provenir de modèles imprécis ou de mesures bruitées. Une approche standard en deux étapes identifie les défauts par des résidus. Nous proposons un cadre de principes pour classifier les méthodes de diagnostic stochastique et guider leur application. Trois approches principales sont explorées : modèle, données et hybride.
APA, Harvard, Vancouver, ISO, and other styles
9

MARIETTE, Jérôme, and Nathalie VIALANEIX. "Des noyaux pour les omiques." In Intégration de données biologiques. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch6.

Full text
Abstract:
En biologie des systèmes, de nombreuses méthodes ont été développées pour intégrer les données -omiques et, parmi elles, les noyaux sont une approche couramment utilisée. Dans ce chapitre, nous présentons le cadre général des approches à noyau et leur utilité pour l'analyse de divers types de données biologiques avec un focus particulier sur les approches exploratoires.
APA, Harvard, Vancouver, ISO, and other styles
10

COHEN-BOULAKIA, Sarah, and Frédéric LEMOINE. "Workflows d’intégration de données bioinformatiques." In Intégration de données biologiques. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch3.

Full text
Abstract:
Les traitements de données sont au cœur de nombreux domaines de la Bioinformatique. Ils consistent en l’enchaînement d’un grand nombre d’outils bioinformatiques et manipulent des données massives et diverses. Ce chapitre décrit les difficultés d’implémentation et d’exécution de ces traitements, introduit les systèmes de gestion de workflows comme élément de solution et souligne les problèmes de recherche encore ouverts.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Systèmes des données echantillones"

1

Zouari, Mohamed, Françoise André, and Maria-Teresa Segarra. "Support d'adaptation dynamique et distribuée dans la conception de systèmes de réplication de données." In the 5th French-Speaking Conference. ACM Press, 2009. http://dx.doi.org/10.1145/1739268.1739281.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dubuc, A., P. Monsarrat, S. Laurencin-Dalicieux, et al. "Application du plasma atmosphérique froid en oncologie : une revue systématique." In 66ème Congrès de la SFCO. EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603018.

Full text
Abstract:
Introduction : Le plasma atmosphérique froid est un gaz ionisé produit à pression atmosphérique. Plusieurs applications médicales sont étudiées, notamment la cicatrisation des plaies chroniques et l’effet antimicrobien. En effet, le traitement par plasma permet de générer de nombreuses espèces réactives de l’oxygène et de l’azote. L’application d’un tel traitement in-vitro sur des cellules eucaryotes a montré de nombreux effets cellulaires tel que l’apoptose. Les applications dans le domaine de l’oncologie ont par conséquent été étudiées. Objectif : L’objectif de cette revue systématique est d’analyser l’utilisation du plasma atmosphérique froid en oncologie ainsi que les méthodologies (lignées cellulaires ciblées, paramètres physiques, thérapies directes ou indirectes) mises en oeuvre jusqu’à ce jour. Matériels et méthodes : Les bases de données Pubmed, ICTRP et Google Scholar ont été explorées jusqu’au 17/01/2017 afin de recenser les études traitant de l’utilisation du plasma en oncologie, que ce soit des études in-vitro, in-vivo ou des essais cliniques. Résultats : 150 articles originaux ont été inclus. Les Jets de plasma sont les systèmes de production de plasma les plus utilisés (73,3%). L’hélium est le gaz le plus utilisé (34%) suivi par l’air (28%) et l’argon (19,3%). Les études sont principalement in-vitro (94%). L’application directe du plasma est la plus représentée (84,2%). Les lignées cellulaires ciblées sont la plupart dérivées de lignées cancéreuses humaines (82%), en particulier des lignées issues de cancer du cerveau (16,6%). Conclusions : Cette étude met en évidence la multiplicité de moyens de production et d’applications clinques du plasma atmosphérique froid en oncologie. Alors que certains dispositifs peuvent être utilisés directement sur les patients, d’autres ouvrent la voie au développement de nouveaux produits pharmaceutiques qui pourraient être produits à échelle industrielle. L’utilisation clinique du plasma nécessite la mise au point de protocoles fiables et standardisés afin de déterminer le plasma le plus adapté à chaque type de cancers et d’envisager son association avec les traitements conventionnels.
APA, Harvard, Vancouver, ISO, and other styles
3

Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-." In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Full text
Abstract:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden &amp; Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden &amp; Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Systèmes des données echantillones"

1

Bourassa Forcier, Mélanie, Dary-Anne Tourangeau, Gaëlle Feruzi, and Mathieu Kiriakos. Introduction d’un télérobot en résidences privées : Enjeux légaux et organisationnels. CIRANO, 2022. http://dx.doi.org/10.54932/obpe9357.

Full text
Abstract:
Ce rapport met en lumière les différentes considérations juridiques à prendre en compte dans le déploiement de télé-robots dans le système de santé du Québec. Il aborde notamment la question de l'interopérabilité des systèmes, de la vie privée et de la collecte de données.
APA, Harvard, Vancouver, ISO, and other styles
2

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, 2012. http://dx.doi.org/10.57071/170rex.

Full text
Abstract:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
APA, Harvard, Vancouver, ISO, and other styles
3

Mongbo, Roch Lambert, Ariel Hardy HOUESSOU, Rodrigue Castro GBEDOMON, et al. Écosystème des données probantes et des politiques de développement : Profil régional d’Afrique de l’Ouest francophone. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa41338.

Full text
Abstract:
Renforcer l'utilisation des données probantes pour des politiques publiques plus pertinentes et efficaces en Afrique de l'Ouest francophone : Le rôle d'un Centre d'excellence pour une meilleure prise de décision. La nécessité de fonder les politiques publiques sur des données probantes est devenue cruciale en Afrique de l’Ouest, face aux défis actuels de développement. Des données de qualité fondées sur des repères théoriques solides permettent d’élaborer des politiques plus efficaces et mieux adaptées aux besoins des populations. Le Centre d’excellence Evidence-Policy-Action vise à faciliter l’utilisation de données probantes aux fins de décisions stratégiques pertinentes dans les pays d’Afrique de l’Ouest francophone, renforçant ainsi la légitimité et l’impact positif des interventions publiques. Les systèmes de production et d'utilisation des données pour l’élaboration de politiques publiques ont été façonnés par l'histoire coloniale et post-coloniale de la région, avec des disparités importantes entre les pays et une forte influence des institutions internationales. Ces systèmes reproduisent à ce jour une tradition de politiques publiques qui impliquent peu les populations bénéficiaires de manière optimale, réduisant dès lors leur poids dans le choix des priorités et des modalités de mise en œuvre. L'Afrique de l'Ouest est face aujourd’hui à de nombreux défis (changement climatique, inégalités sociales, dynamique démographique à forte proportion de jeunes peu qualifiés et sans emploi, etc.) qui requièrent des réponses politiques coordonnées, adossées sur des données probantes. L’écosystème actuel des données probantes en Afrique de l’Ouest est caractérisé par une multiplicité d’acteurs (ministères, universités, ONG, Think Tanks) et une production assez abondante dans les secteurs de la santé, de l’éducation et de l’agriculture. Cependant, des disparités subsistent au sein et entre les pays en termes d’infrastructures et de services de recherche. Le manque de coordination entre les acteurs entrave la synergie des efforts et limite la capacité du système a` produire des données de haute qualité pour soutenir des politiques cohérentes et efficientes. A cela s’ajoute le faible enracinement du recours aux données probantes et l’absence de plateformes fiables de partage et de valorisation des données. En réponse à ces enjeux, le Centre d’Excellence Evidence-Policy-Action se présente en catalyseur pour la promotion d’un écosystème de données probantes performant dans la région. Il contribue à renforcer les capacités des acteurs et à faciliter les échanges entre chercheurs, décideurs et praticiens. Ce centre pourrait offrir une plus grande harmonisation et cohérence des politiques publiques par un appui continu à l’utilisation de données fiables pour des décisions stratégiques et opérationnelles. Le renforcement de l’écosystème des données probantes en Afrique de l’Ouest nécessite des efforts coordonnés pour lever les obstacles structurels. Parmi les recommandations formulées figurent le renforcement de la coopération régionale, l’harmonisation des outils de collecte et d’analyse des données, ainsi qu’une sensibilisation accrue sur la centralité des données probantes en politique publique. La mise en place de programmes de formation et d’appui technique pour les acteurs locaux est essentielle pour assurer une appropriation et une utilisation efficace des données probantes dans les processus de développement durable de la région.
APA, Harvard, Vancouver, ISO, and other styles
4

LANKOANDE, Gountiéni D., Kisito GANDJI, Aminata ZONG-NABA, et al. Écosystème des données probantes et des politiques de développement : Profil du Burkina Faso. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa41300.

Full text
Abstract:
L’accès et la valorisation de données probantes restent un défi pour les acteurs de l’écosystème des données probantes au Burkina Faso pour alimenter les décisions politiques et contribuer à l’atteinte des objectifs du développement durable. Les principaux acteurs de l'écosystème des données probantes au Burkina Faso incluent les ministères, les ONG, les associations, les centres de recherche, les médias et les partenaires internationaux. Ces acteurs collaborent pour produire, diffuser, et utiliser des données afin d’éclairer et d’informer les processus de prise de décision au niveau public. L'étude a identifié plusieurs besoins en capacités pour les producteurs, intermédiaires et utilisateurs de données probantes. Les producteurs ont besoin des capacités en traitement et en analyse des données, de stockage et d'archivage, et en gestion éthique des données. Les intermédiaires ont besoin de capacités de prise de décision basée sur les données et de soutien technique pour la communication des résultats de recherche. Les utilisateurs souhaitent un meilleur accès aux plateformes de diffusion et une valorisation efficace des données. Parmi les initiatives innovantes identifiées, Burkina Open Data Initiative ambitionne de renforcer la transparence en rendant les données gouvernementales accessibles, tandis que la Youth Open Data se concentre sur l'entrepreneuriat et l'engagement des jeunes. La Plateforme de l'Institut National de la Statistique et de la Démographie (INSD) offre un accès aux rapports d’enquête et aux micro-données, et la Plateforme Nationale d'Information pour la Nutrition (PNIN) aide à renforcer les systèmes d'information pour la nutrition. En somme, l'établissement d'un Centre d'Excellence est perçu comme une opportunité prometteuse pour renforcer la collaboration, maximiser l'impact des données sur les politiques de développement, et surmonter les défis liés a` l'accès et a` l'utilisation des données probantes au Burkina Faso.
APA, Harvard, Vancouver, ISO, and other styles
5

Sall, Mame Cheikh Anta, Diatou Ndiaye, Amadou Gueye, et al. Écosystème des données probantes et des politiques de développement : Profil du Sénégal. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa22470.

Full text
Abstract:
L'utilisation de données probantes est cruciale pour la prise de décisions efficaces en matière de politiques publiques. Cela implique une meilleure organisation et coordination des acteurs et des données. Au Sénégal, des progrès significatifs ont été réalisés en matière de gestion des données probantes, grâce à divers acteurs tels que l’Agence Nationale de la Statistique et de la Démographie (ANSD) et la Direction Générale de la Planification et des Politiques Économiques (DGPPE). Cependant, malgré ces avancées, des défis persistent, notamment en matière de coordination et d’utilisation des données dans le processus décisionnel. En dépit de l’abondance de données disponibles, leur incohérence et le manque de synergie entre les acteurs créent des inefficacités. Les systèmes de suivi et d’évaluation existants, se concentrent davantage sur le suivi, que sur l'évaluation et l'apprentissage. Il est donc nécessaire de clarifier les cadres institutionnels, et d'améliorer la coordination entre les acteurs, pour maximiser l'impact des données probantes. Face à ces défis, plusieurs initiatives ont été mises en place pour illustrer des pratiques efficaces de gestion et d'utilisation des données probantes. Les concertations entre l’ANSD et les utilisateurs de données, le guide méthodologique de la DGPPE pour les Lettres de Politiques Sectorielles de Développement, et le projet Feed the Future en sont des exemples notables. Ces initiatives montrent l'importance de la participation des parties prenantes, de la méthodologie rigoureuse, et de l'amélioration des capacités des acteurs. Pour aller plus loin, le Sénégal doit renforcer l'efficacité de son écosystème de données probantes. Cela passe par l'amélioration de la coordination, la standardisation des processus de collecte et de partage des données, et le renforcement des capacités des utilisateurs. Il est crucial de promouvoir l'utilisation des données probantes et de clarifier les cadres institutionnels pour une meilleure gouvernance des politiques publiques. En somme, des efforts soutenus sont nécessaires pour optimiser l'impact des données probantes sur les politiques publiques, en assurant une coordination harmonieuse et une utilisation efficace des ressources disponibles.
APA, Harvard, Vancouver, ISO, and other styles
6

Magnan, M., S. H. Xie, M. Hafer, et al. ANSE Handbook – First Edition for ANSE 1.0. Natural Resources Canada/CMSS/Information Management, 2024. https://doi.org/10.4095/st000033.

Full text
Abstract:
Le Guide de l’ANSE (Abstract Network Simulation Engine) fournit des directives techniques pour la conception, la validation et l’analyse de la trajectoire du carbone dans les produits forestiers récoltés (PFR) à l’aide du moteur ANSE. ANSE permet aux utilisateurs de construire des modèles personnalisables et équilibrés en masse, qui simulent la dynamique spatiale et temporelle du carbone dans les systèmes de PFR. Le guide présente les concepts de modélisation essentiels, les structures de données et les étapes de travail nécessaires pour définir les stocks de carbone, les flux et les transformations au sein de bassins et d’unités spatiales définis par l’utilisateur. Il fournit également des instructions détaillées pour créer les fichiers de définition du modèle, configurer les flux de carbone déclenchés par des événements et analyser les résultats de simulation à l’aide des sorties de bases de données.
APA, Harvard, Vancouver, ISO, and other styles
7

Carter, J., and N. L. Hastings. Current state of coastal change monitoring and mapping in Canada: towards a national framework. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pzkcg43b8e.

Full text
Abstract:
Les populations et les établissements côtiers du Canada exigeront des planificateurs de l'utilisation des sols et des autres décideurs qu'ils comprennent les risques et l'instabilité potentielle des environnements côtiers au Canada. Les variations naturelles des environnements côtiers seront exacerbées par les impacts continus du changement climatique - élévation du niveau de la mer et augmentation des tempêtes. En réponse à cette situation, des chercheurs de Ressources naturelles Canada ont procédé à un examen approfondi des pratiques existantes dans tout le pays pour détecter et surveiller les changements côtiers afin d'élaborer un cadre pancanadien. Par le passé, la Commission géologique du Canada a mené des recherches sur les changements côtiers et la sensibilité au niveau de la mer, en partenariat avec des agences provinciales lorsque cela était possible. Cependant, les programmes de surveillance sont actuellement ponctuels, bien que des efforts soient en cours pour rassembler les informations historiques dans une seule base de données SIG qui sera accessible au public. Compte tenu de l'évolution du climat et de l'augmentation des risques pour la société, il est nécessaire de redynamiser un cadre national pour l'étude des changements côtiers. Cette étude donne un aperçu de la méthodologie la plus récente et de la compréhension du changement côtier au Canada et documente les ensembles de données provinciales et territoriales qui utilisent une variété de formats, de méthodes et d'approches. C'est dans le Canada atlantique que les données sur le changement côtier au Canada sont les plus complètes. Les côtes de l'Arctique et de la baie d'Hudson souffrent d'un manque de couverture, tandis que la côte du Pacifique manque de données quantitatives sur le changement côtier (mais est décrite en détail dans les données qualitatives). Les deux principales méthodes utilisées dans la recherche sur les changements côtiers sont le suivi des changements à partir de l'imagerie aérienne et les enquêtes sur le terrain utilisant soit des mesures de distance à partir de points fixes, soit des traces GPS différentielles. Cependant, certaines sources décrivent l'utilisation de relevés par drones aériens et de la photogrammétrie comme des techniques émergentes. Divers systèmes de classification des données sur les changements côtiers sont utilisés par différentes institutions ; une comparaison de ces systèmes a permis de produire trois prototypes pour un éventuel système national unifié de classification des changements côtiers. Cette étude met en lumière l'état actuel de la recherche sur les changements côtiers au Canada, en indiquant les méthodes utilisées et les domaines nécessitant des améliorations. Les données quantitatives concernant la côte pacifique permettront d'égaler les recherches effectuées dans le secteur atlantique, tandis que la côte de la baie d'Hudson et l'intérieur de l'archipel arctique canadien semblent être collectivement sous-étudiés.
APA, Harvard, Vancouver, ISO, and other styles
8

Tinta, Jule Kaïni, Mouhamed Zerbo, Fabrizio Santoro, Awa Diouf, and Kèrabouro Palé. Services électroniques et conformité fiscale : l'expérience des petites et moyennes entreprises au Burkina Faso. Institute of Development Studies, 2025. https://doi.org/10.19088/ictd.2025.031.

Full text
Abstract:
Les gouvernements africains numérisent de plus en plus leurs systèmes fiscaux, dans l'espoir d'augmenter leurs recettes. Cet article étudie l'adoption et l'impact des services électroniques sur les résultats fiscaux, en mettant l’accent sur les petites et moyennes entreprises (PME) au Burkina Faso. Nous nous concentrons sur trois indicateurs de l'adoption des services électroniques par les contribuables - à savoir l'inscription sur la plateforme eSINTAX, son utilisation pour la déclaration électronique (appelée déclaration eSINTAX), et le paiement numérique des impôts (appelé télépaiement des impôts). Nous nous appuyons sur les données d'enquête de 1 090 PME et sur les données de l’administration fiscale d'environ 17 000 PME concernant eSINTAX, les déclarations et paiements d'impôts. Nous présentons trois séries de résultats. D’abord, les principaux facteurs d'adoption des services eSINTAX sont le statut juridique de SARL, l'utilisation de systèmes de facturation électronique, une meilleure connaissance de la fiscalité, le fait d'opérer dans le secteur du commerce, d’être d’accord pour les audits, d'avoir un service de comptabilité et d'être une entreprise plus ancienne. Ensuite, nous étudions comment l'utilisation de la technologie façonne les attitudes et les perceptions en matière de fiscalité. Bien qu'aucun lien étroit ne soit établi entre la déclaration en ligne et la perception pratique de la navigation dans le système fiscal, le télépaiement des impôts améliore de manière significative la perception de la facilité de déclaration et contribue au respect des obligations, en particulier après les redressements fiscaux. En outre, eSINTAX améliore la perception de l'équité, de la transparence et de la confiance dans le système fiscal et permet d’atténuer la perception de la corruption. Enfin, nous documentons les impacts causaux de l’adoption des services du eSINTAX sur les déclarations et les paiements d'impôts. L'inscription sur eSINTAX augmente de manière significative les obligations fiscales déclarées, une tendance qui se oursuit avec la déclaration des revenus sur eSINTAX. Le télépaiement des impôts se traduit, quant à lui, par des recettes fiscales plus élevés que celles obtenues par le biais de méthodes non numériques. Sur la base de ces résultats, le document propose des recommandations politiques pour l'administration fiscale burkinabè et d'autres gouvernements africains qui souhaitent tirer parti de la numérisation pour renforcer leurs systèmes fiscaux. Ces recommandations comprennent le lancement de campagnes de sensibilisation ciblées et la mise en place de formations pratiques pour encourager l'adoption des services fiscaux numériques. Il faudrait également investir davantage dans l'infrastructure numérique et la sécurité des paiements électroniques afin de garantir la fiabilité et la confiance dans les systèmes de télépaiement.
APA, Harvard, Vancouver, ISO, and other styles
9

POFAGI, Mathias, Ariel Hardy HOUESSOU, Rodrigue Castro GBEDOMON, et al. Écosystème des données probantes et des politiques de développement : Profil du Bénin. Centre Africain pour le Développement Équitable (ACED), 2024. https://doi.org/10.61647/aa85771.

Full text
Abstract:
Au Bénin, le système formel des données probantes est sectorisé par les ministères, dont les directions techniques, en tant que pourvoyeuses d’informations, produisent ces données. Ainsi, l’administration publique, ainsi que les centres de formation et/ou de recherche, qu’ils soient publics ou privés, constituent les principaux producteurs de données probantes. Cependant, les connaissances issues de l’expérience des professionnels sont faiblement documentées. Les acteurs clés entretiennent des relations à des degrés divers. Dans les systèmes alimentaires, les initiatives en matière de production de données probantes sont principalement initiées par le secteur public. En ce qui concerne le Développement humain, les acteurs les plus influents sont ceux du secteur dit « social ». Ce sont eux qui jouent les rôles les plus prépondérants dans la production de données probantes. Une fois encore, les principales structures impliquées sont celles de l’administration publique, notamment le ministère de la santé, le ministère des affaires sociales et de la microfinance, auxquelles s’ajoutent accessoirement celles dédiées au développement et à la coordination de l’action gouvernementale. Dans le domaine de l’environnement, la production de données probantes est reposé sur des études, l’exécution de projets ou programmes, ou encore sur des évaluations. Pour ce qui est de la thématique « Numérique », il s’agit d’une préoccupation plus ou moins récente. Ses acteurs, encore épars, sont en grande partie issus du secteur privé et appartiennent principalement aux PME/PMI. Il est toutefois utile de reconnaître que le système politique s’est doté d’instruments légaux, réglementaires et incitatifs. Les principaux sont la loi sur les activités statistiques (2022) et la loi-cadre sur la planification du développement et l'évaluation des politiques (2024). Avec ces outils et d’autres instruments, une dynamique est instaurée pour combler les besoins en données probantes relevés. Cependant, il a été reconnu qu’au-delà de ces instruments, des renforcements de capacités sont toujours nécessaires afin d’habiliter au mieux les acteurs des données probantes sur leur production, leur utilisation et leur valorisation. Dans ce contexte, les ressources de tous ordres, notamment financières et techniques, restent des leviers de premiers plans pour promouvoir l’écosystème qui est de plus en plus conscient de l’importance des données. Cette prise de conscience s’est reflétée dans la diversité des expériences innovantes d’utilisation des données probantes dans les processus politiques au Bénin, qui ont été identifiées et documentées ici.
APA, Harvard, Vancouver, ISO, and other styles
10

Martineau, Joé T., Frédérique Romy Godin, Janine Badr, et al. Enjeux éthiques de l’IA en santé - Fiche 4. Observatoire international sur les impacts sociétaux de l'IA et du numérique, 2022. http://dx.doi.org/10.61737/fspn5441.

Full text
Abstract:
La présente fiche propose une revue des différents enjeux éthiques liés au développement et à l’utilisation des technologies d’intelligence artificielle dans le milieu de la santé, en trois parties. D’abord, nous aborderons les enjeux éthiques liés à l’exploitation de données massives nécessaires à l’entrainement des algorithmes de l’IA. Ensuite, nous présenterons les principaux enjeux éthiques liés au développement et à l’utilisation des SIA en santé, en abordant la façon dont ces systèmes impactent nos vies ainsi que l’environnement physique et social dans lequel nous vivons. Nous présenterons finalement les principales initiatives nationales et internationales en matière d’éthique de l’IA et de la gestion des données, fruits et reflets d’une réflexion globale sur ces sujets. Ces initiatives ont notamment proposé des lignes directrices et principes normatifs servant de guides pour le développement de technologies de l’IA éthiques et responsables Il s'agit de la quatrième fiche d'une série de 4 développée dans le cadre d'un mandat réalisé pour le Ministère de la Santé et des Services sociaux du Québec (MSSS).
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!