Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Modélisation des données (informatique).

Zeitschriftenartikel zum Thema „Modélisation des données (informatique)“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Modélisation des données (informatique)" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Bellemain, Franck. "ÉLEMENTS D'INGENIERIE DE LOGICIELS EDUCATIFS, LE CAS DES MICROMONDES POUR LES MATHEMATIQUES : DIMENSION INFORMATIQUE." Revista Paranaense de Educação Matemática 12, no. 28 (2023): 01–19. http://dx.doi.org/10.33871/22385800.2023.12.28.01-19.

Der volle Inhalt der Quelle
Annotation:
Ce texte reprend, en la poursuivant, la présentation d’une étude de recherche et développement déjà partiellement publiée. Les principes de conception s’appuient sur l’ingénierie didactique informatique dans laquelle nous nous intéressons plus particulièrement à la partie initiale des analyses préalables dans leurs dimensions épistémologique, cognitive, didactique et informatique. Ces analyses préalables fournissent une étude approfondie du savoir et de son enseignement et apprentissage qui rend opérationnelle la transposition didactique informatique. Dans ce texte, nous abordons plus spécifiquement la dimension informatique des analyses préalable pour ébaucher une modélisation d’un micromonde générique offrant un support à l’exploration et résolution de problèmes nécessitant l’articulation entre divers registres de représentation, et finalement ébaucher des structures de données. L’objectif de ce travail n’est pas seulement d’avancer sur les spécifications et leur modélisation, mais aussi, dans une ingénierie reverse, de favoriser le transfert technologique de micromonde déjà développés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Secretan, Y., M. Leclerc, S. Duchesne, and M. Heniche. "Une méthodologie de modélisation numérique de terrain pour la simulation hydrodynamique bidimensionnelle." Revue des sciences de l'eau 14, no. 2 (2005): 187–212. http://dx.doi.org/10.7202/705417ar.

Der volle Inhalt der Quelle
Annotation:
L'article pose la problématique de la construction du Modèle Numérique de Terrain (MNT) dans le contexte d'études hydrauliques à deux dimensions, ici reliées aux inondations. La difficulté est liée à l'hétérogénéité des ensembles de données qui diffèrent en précision, en couverture spatiale, en répartition et en densité, ainsi qu'en géoréférentiation, notamment. Dans le cadre d'un exercice de modélisation hydrodynamique, toute la région à l'étude doit être documentée et l'information portée sur un support homogène. L'article propose une stratégie efficace supportée par un outil informatique, le MODELEUR, qui permet de fusionner rapidement les divers ensembles disponibles pour chaque variable qu'elle soit scalaire comme la topographie ou vectorielle comme le vent, d'en préserver l'intégrité et d'y donner accès efficacement à toutes les étapes du processus d'analyse et de modélisation. Ainsi, quelle que soit l'utilisation environnementale du modèle numérique de terrain (planification d'aménagement, conservation d'habitats, inondations, sédimentologie), la méthode permet de travailler avec la projection des données sur un support homogène de type maillage d'éléments finis et de conserver intégralement l'original comme référence. Cette méthode est basée sur une partition du domaine d'analyse par type d'information : topographie, substrat, rugosité de surface, etc.. Une partition est composée de sous-domaines et chacun associe un jeu de données à une portion du domaine d'analyse par un procédé déclaratoire. Ce modèle conceptuel forme à notre sens le MNT proprement dit. Le processus de transfert des données des partitions à un maillage d'analyse est considéré comme un résultat du MNT et non le MNT lui-même. Il est réalisé à l'aide d'une technique d'interpolation comme la méthode des éléments finis. Suite aux crues du Saguenay en 1996, la méthode a pu être testée et validée pour en démontrer l'efficacité. Cet exemple nous sert d'illustration.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

LE MOAL, M. "Qualifier la qualité des données localisées numériques des réseaux d’eau et d’assainissement." Techniques Sciences Méthodes 11 (November 20, 2019): 51–64. http://dx.doi.org/10.36904/tsm/201911051.

Der volle Inhalt der Quelle
Annotation:
Les systèmes d’information géographique (SIG) sont devenus incontournables dans la gestion des réseaux d’eau et d’assainissement et leur efficacité repose en très grande partie sur la qualité des données exploitées. Parallèlement, les évolutions réglementaires et les pratiques des utilisateurs augmentant notamment les échanges d’informations renforcent le rôle central des données et de leur qualité. Si la plupart des solutions SIG du marché disposent de fonctions dédiées à la qualification de la qualité des données, elles procèdent de la traduction préalable de spécifications des données en règles informatiques avant de procéder aux tests qualitatifs. Cette approche chronophage requiert des compétences métier. Pour éviter ces contraintes, Axes Conseil a élaboré un procédé de contrôle des données SIG rapide et accessible à des acteurs métier de l’eau et de l’assainissement. Plutôt qu’une lourde approche de modélisation a priori, le principe est de générer un ensemble d’indicateurs explicites facilement exploitables a posteriori par les acteurs du métier. Cette approche offre une grande souplesse d’analyse et ne nécessite pas de compétences informatiques avancées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Emorine, Martine. "Lexique contrôlé." Terminology 2, no. 2 (1995): 293–323. http://dx.doi.org/10.1075/term.2.2.07emo.

Der volle Inhalt der Quelle
Annotation:
Nous explicitons dans cet article d'une part, un modèle conceptuel d'entrées verbales d'un lexique d'une langue contrôlée, et, d'autre part, l'implantation dans le formalisme de représentation des connaissances typed feature structures (désormais TFS) d'un modèle d'une base de données lexicales et la spécification d'entrées verbales d'une langue contrôlée, ici le Français Rationalisé (désormais FR). Une langue contrôlée est un sous-ensemble simplifié d'une langue naturelle comportant des règles syntaxiques et lexicales restrictives. Après une présentation générale des langues contrôlées, du contexte de leur utilisation et des principes généraux qui les régissent, nous traitons, dans une première partie, la modélisation des entrées lexicales des verbes du FR, à partir de la formalisation d'un lexique existant, le glossaire FR, pour permettre de contrôler sa cohérence et son adéquation expressive. Nous présentons les choix et les motivations qui ont déterminé la modélisation que nous avons effectuée, l'élément essentiel de notre conception d'une modélisation lexicale est la décision, que nous motivons dans cet article, de n 'incorporer que des informations discriminantes et/ou pertinentes pour permettre une discrimination entre les emplois verbaux autorisés dans FR. Dans la seconde partie, nous présentons l'implantation de la base de données lexicales dans le formalisme TFS, développé à l'Université de Stuttgart. Nous montrons les grands principes qui régissent ce formalisme: informations regroupées sous forme de structures de traits typées, hiérarchisation, circulation de l'information par héritage multiple. Puis nous définissons l'architecture de notre base de données lexicales, et nous illustrons l'implantation des entrées verbales. En conclusion, nous présentons les perspectives linguistiques et informatiques de notre travail, et les extensions qu'il serait souhaitable d'apporter à notre modélisation. L'implémentation que nous avons réalisée est à considérer comme une sorte d'expérimentation du formalisme TFS, et nous présentons une rapide synthèse de ses possibilités et de ses limites. Nous pensons par ailleurs avoir démontré que ce n'est qu'en formalisant les observations linguistiques qu'il est possible de "contrôler une langue contrôlée", c'est-à-dire de pouvoir être certain qu'il s'agit d'un modèle intrinsèquement cohérent et complet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Phan1, Denis. "Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales?" Nouvelles perspectives en sciences sociales 5, no. 2 (2010): 101–33. http://dx.doi.org/10.7202/044079ar.

Der volle Inhalt der Quelle
Annotation:
RésuméEn philosophie, l’ontologie est « la science de ce qui est, des types et structures des objets, propriétés, évènements, processus et relations »; En informatique et management des connaissances, une « ontologie » est la spécification de la conceptualisation d’un domaine de connaissance. Pour la simulation multi-agents, le domaine concerne les modèles et non les « données ». Pour répondre à la question « Pourquoi un cadre ontologique pour la modélisation multi-agents en sciences humaines et sociales? », cet article aborde d’abord trois dimensions: (1) ingénierie des modèles (2) aspects thématiques (disciplinaires) et épistémologiques (3) comparaison et évaluation de modèle (test ontologique). À la différence de nombreuses ontologies, cet article ne propose pas une unique représentation d’un domaine de connaissance, mais le maintien d’une possible pluralité, basée sur le concept de « cadre de connaissance », conçu pour permettre d’intégrer une pluralité de « point de vue » dans un cadre général qui nous permet de comparer et/ou combiner différents points de vue qui coexistent en sciences sociales. La dernière partie présente ainsi quelques exemples de points de vue ontologiques qui peuvent être dérivés à partir du modèle de ségrégation résidentielle introduit par Schelling.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Rizkallah, Élias. "L’analyse textuelle des discours assistée par ordinateur et les logiciels textométriques : réflexions critiques et prospectives à partir d’une modélisation des procédés analytiques fondamentaux." Cahiers de recherche sociologique, no. 54 (July 24, 2014): 141–60. http://dx.doi.org/10.7202/1025996ar.

Der volle Inhalt der Quelle
Annotation:
Partant d’un constat d’une focalisation de l’analyse de discours française sur les logiciels textométriques, l’auteur tente de modéliser les procédés fondamentaux sous-jacents à l’interaction analyste-texte en distinguant les modes, les opérations, les dimensions, la granularité, la contextualité et la temporalité de la démarche, et ce, avec ou sans recours aux traitements informatiques. À la lumière de cette modélisation, les logiciels textométriques montrent que l’assistance du chercheur est souvent une question de donner à voir, via des procédés d’interrogation, d’assignation automatique et de représentation, des données textuelles et extratextuelles, mais très rarement une question d’accompagner le chercheur dans son travail du texte (p. ex. annotation sur mesure, multiplicité des couches de lecture, évolution du corpus) pour produire et construire du sens par ses traces d’analyses dans un environnement intégré. Les origines de cette tendance sont discutées ainsi que les orientations pour les développements à venir.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Calvet, Jean-Christophe, and Jean-Louis Champeaux. "L'apport de la télédétection spatiale à la modélisation des surfaces continentales." La Météorologie, no. 108 (2020): 052. http://dx.doi.org/10.37053/lameteorologie-2020-0016.

Der volle Inhalt der Quelle
Annotation:
Cet article présente les différentes étapes des développements réalisés au CNRM des années 1990 à nos jours pour spatialiser à diverses échelles les simulations du modèle Isba des surfaces terrestres. Une attention particulière est portée sur l'intégration, dans le modèle, de données satellitaires permettant de caractériser la végétation. Deux façons complémentaires d'introduire de l'information géographique dans Isba sont présentées : cartographie de paramètres statiques et intégration au fil de l'eau dans le modèle de variables observables depuis l'espace. This paper presents successive steps in developments made at CNRM from the 1990s to the present-day in order to spatialize the simulations of the Isba land surface model at various scales. The focus is on the integration in the model of satellite data informative about vegetation. Two complementary ways to integrate geographic information in Isba are presented: mapping of static model parameters and sequential assimilation of variables observable from space.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

PHOCAS, F., J. BOBE, L. BODIN, et al. "Des animaux plus robustes : un enjeu majeur pour le développement durable des productions animales nécessitant l’essor du phénotypage fin et à haut débit." INRAE Productions Animales 27, no. 3 (2014): 181–94. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3066.

Der volle Inhalt der Quelle
Annotation:
L’enjeu majeur du phénotypage animal est d’acquérir une connaissance systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience et la robustesse des génotypes, et un élevage de précision exploitant la variabilité individuelle des animaux pour gagner en résilience à l’échelle du troupeau, ou pour améliorer la conduite à génotype donné. Deux défis majeurs de connaissance, interdépendants et communs à toutes les filières animales, sont à relever pour améliorer la robustesse des animaux : i) comprendre et prédire les compromis entre fonctions vitales, c’est-à-dire les changements de priorités dans l’allocation de ressources limitées ; ii) comprendre et exploiter les aspects temporels de la robustesse au cours de la vie de l’animal pour lui permettre de maintenir son niveau de production dans une large gamme d’environnements sans pour autant compromettre sa reproduction, sa santé et son bien-être. Atteindre ces objectifs nécessite de lever les verrous techniques suivants : i) définir des phénotypes complexes à partir de l’intégration de données obtenues à différentes échelles moléculaires, tissulaires, de l’animal ou d’une de ses fonctions ; ii) mettre en oeuvre des technologies à haut débit pour caractériser à moindre coût et le plus précisément possible le plus grand nombre d’animaux ; iii) développer d’importantes bases de données, des méthodes et outils informatiques performants, nécessaires aux traitements des informations à des fins de modélisation et de biologie prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Richard, M., I. Charlet, X. Aimé, and M. O. Krebs. "Enrichir les classifications en psychiatrie par les données textuelles : création d’une ontologie de la psychiatrie." European Psychiatry 29, S3 (2014): 542–43. http://dx.doi.org/10.1016/j.eurpsy.2014.09.323.

Der volle Inhalt der Quelle
Annotation:
Le projet Covalmo s’est développé en partenariat entre le centre hospitalier Sainte-Anne et le Laboratoire d’Ingénierie des Connaissances en e-Santé. L’objectif premier de Covalmo, situé à mi-chemin entre l’Informatique et la Médecine, est d’expliciter l’ensemble des déterminants possibles de maladies psychiatriques dans le but de contribuer au développement d’un consensus sur les catégories descriptives des troubles psychiatriques, au travers d’outils et méthodes de l’Ingénierie des Connaissances. Covalmo vise ainsi au développement d’outils répondants à deux problématiques : (1) mieux décrire les diagnostics posés et les actes pratiqués, et ainsi (2) mieux indexer les dossiers patient. L’Ingénierie des Connaissances traite de la modélisation des connaissances et des problématiques qui y sont liées. Pour cela, elle développe des ontologies informatiques, qui sont des modèles permettant de recenser, organiser et lier des concepts entre eux grâce aux relations qui les unissent. Les concepts sont des entités ayant un sens dans le domaine représenté, et les relations sont les liens sémantiques entretenus entre ces concepts. Le développement de l’ontologie du domaine de la psychiatrie, OntoPsychia, est réalisé à partir des informations contenues dans un corpus textuel composé de 8000 CRH préalablement anonymisés selon un protocole strict. L’hypothèse de base de ce travail étant que les mots et les différentes verbalisations présentes dans les textes sont des traces de la conceptualisation du domaine et peuvent être utilisés pour construire l’ontologie. Les différentes nomenclatures utilisées depuis dix ans pour annoter les dossiers patients (CIM-10, DSM, ATC) sont aussi utilisées pour enrichir l’ontologie.La validation de l’ontologie sera effectuée par les experts du domaine, ainsi que par sa mise en opérationnalisation au sein d’applications dédiées, par exemple : indexation de comptes rendus et de dossiers patients ou découverte de profils de patients résistants aux traitements médicamenteux. Ci-dessous, un extrait du module d’OntoPsychia modélisant la vie sociale (Fig. 1).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Tidiane Dia, Amadou. "Cartographie et Modélisation de l’Érosion Hydrique dans le Bassin-Versant de Ogo (Nord-est du Sénégal) par Approche Statistique Bivariée de la Valeur Informative et Ratio de Fréquence." European Scientific Journal, ESJ 19, no. 6 (2023): 222. http://dx.doi.org/10.19044/esj.2023.v19n6p222.

Der volle Inhalt der Quelle
Annotation:
Le bassin versant de Ogo connait des contraintes climatiques, écologiques fortes et changeantes. La dynamique de dégradation actuelle est de plus en plus marquée par une intensification de l’érosion hydrique. C’est dans cette perspective que le présent travail a été réalisé pour mesurer la vulnérabilité du bassin versant de Ogo face à cette morphodynamique. Pour ce faire nous avons adopté parmi de nombreuses méthodologies disponibles dans les revues scientifiques comme la théorique de l’évidence, la logistique régression, le processus de l’analyse hiérarchique (AHP), la méthode bivariée dont le ratio de fréquence et la valeur informative qui fait d’office de méthode de référence dans la présente étude. Dans l’application de cette méthode, nous avons procédé par le recensement des différents paramètres d’entrés dont les différents facteurs causatifs à l’érosion hydrique et la cartographie d’inventaire des différentes formes d’érosion recensé dans le bassin versant de Ogo. Ces données ont été traitées, stockées et analysées dans un logiciel du système d’information géographique afin de rendre l’application assez souple. La susceptibilité à l’érosion hydrique dans le bassin-versant de Ogo ayant été appréhendé par la méthode de la valeur informative a montré que : le bassin versant de Ogo est très vulnérable à l’érosion hydrique, ce que l’approche descriptive des différentes formes d’érosions par la cartographie d’inventaire confirme. Les classes de susceptibilité sont reparties ainsi qu’il suit : très faible, faible, moyenne, forte et très fortes. La classe forte occupe 30,45 % de surface de susceptibilité tandis que la classe très forte occupe 20,28 % par rapport à l’ensemble de la zone étudiée et la classe moyenne occupe 27,89 %. Les résultats obtenus par la cartographie de la susceptibilité dudit bassin face à l’érosion hydrique ont été soumis à la validation par l’analyse de la courbe de ROC. Suite au croisement des données de l’inventaire sur la carte de susceptibilité, les surfaces des pixels pondérées obtenues sont déterminées par le calcul des Area under curver qui communique une information sur le taux de réussite ou d’échec de la méthode. Un taux inférieur ou égale à 60 % signifie l’échec de la méthodologie par la non précision des résultats obtenue ; par contre, un taux supérieur ou égale à 70 % signifie un niveau de précision de la méthode réussit. Le taux obtenu est de 78 %, révélant ainsi un bon résultat.
 The Ogo watershed is subject to strong and changing climatic and ecological constraints. The current degradation dynamics are increasingly marked by an intensification of water erosion. It is in this perspective that the present work was carried out with the aim of measuring the vulnerability of the Ogo watershed to this morphodynamic. In order to do so, we adopted among many methodologies available in scientific journals such as the evidence theory, logistic regression, the hierarchical analysis process (AHP), the bivariate method whose frequency ratio and informative value act as reference method in the present study. In the application of this method, we proceeded by listing the different input parameters including the different causative factors of water erosion and the inventory mapping of the different forms of erosion identified in the Ogo catchment. These data were processed, stored and analysed in a Geographic Information System software to make the application flexible enough. The susceptibility to water erosion in the Ogo catchment area having been apprehended by the information value method showed that : the Ogo catchment area is very vulnerable to water erosion, a fact confirmed by the descriptive approach of the different forms of erosion by inventory mapping. The susceptibility classes are divided into very low, low, medium, high and very high. The strong class occupies 30.45% of the susceptibility area, while the very strong class occupies 20.28% of the entire study area and the medium class occupies 27.89%. The results obtained by mapping the susceptibility of the said basin to water erosion were subjected to validation by ROC curve analysis. Following the cross-referencing of the inventory data with the susceptibility map, the weighted pixel areas obtained are determined by calculating the Area under curver, which provides information on the success or failure rate of the method. A rate of less than or equal to 60% means the failure of the methodology due to the non-precision of the results obtained, whereas a rate of more than or equal to 70% means a successful precision rate of the method. The rate obtained is 78%, thus revealing a good result.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

CORPET, F., and C. CHEVALET. "Analyse informatique des données moléculaires." INRAE Productions Animales 13, HS (2000): 191–95. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3837.

Der volle Inhalt der Quelle
Annotation:
Les données biologiques, en particulier les séquences d’ADN, s’accumulent extrêmement rapidement. Pour exploiter toutes ces données, une nouvelle science est née, la bioinformatique. Accéder de manière rapide et fiable aux données disponibles dans les banques internationales et analyser les données expérimentales produites à grande échelle nécessitent des outils informatiques puissants et en perpétuel développement. Assembler les séquences brutes, trouver les unités fonctionnelles des séquences génomiques, comparer les séquences entre elles, prédire les structures et les fonctions des macromolécules, comprendre les interactions entre les gènes et leurs produits en termes de réseaux métaboliques mais aussi d’évolution des espèces : toutes ces questions nécessitent l’utilisation de la bioinformatique et son développement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Bourgain, JL, JM Puizillout, and JM Ropars. "Informatique centralisée des données d'anesthésie." Annales Françaises d'Anesthésie et de Réanimation 16, no. 7 (1997): fi23—fi24. http://dx.doi.org/10.1016/s0750-7658(97)89860-7.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Petitgars, Ph, and P. Dieterling. "Informatique et bases de données." Acta Endoscopica 29, S2 (1999): 409–13. http://dx.doi.org/10.1007/bf03019328.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Morgat, Anne, and François Rechenmann. "Modélisation des données biologiques." médecine/sciences 18, no. 3 (2002): 366–74. http://dx.doi.org/10.1051/medsci/2002183366.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Ploux, Sabine. "Modélisation et Traitement Informatique de la Synonymie." Lingvisticæ Investigationes. International Journal of Linguistics and Language Resources 21, no. 1 (1997): 1–27. http://dx.doi.org/10.1075/li.21.1.02plo.

Der volle Inhalt der Quelle
Annotation:
This paper deals with automatic structuring of semantic values in a dictionary of synonyms. The data we used were first extracted from seven French published dictionnaries of synonyms and then merged to obtain the files we worked on. We explain here why a discrete mathematic representation of synonymic relation is not sufficient to produce a semantic structure (that represents the different meanings of a term but also their overlapping). Then we propose a continuous representation (using data analysis) that ables the machine to produce for each term its semantic values. The system also labels these values with prototypic synonyms and detects synonyms that share different semantic "axes" with the headword. It should be noted that these semantic spaces are obtained automatically for each headword from a homogeneous list of synonyms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Lemasson, Jean-Pierre. "Pour une informatique des libertés." Cahiers de recherche sociologique, no. 13 (April 19, 2011): 139–52. http://dx.doi.org/10.7202/1002080ar.

Der volle Inhalt der Quelle
Annotation:
L’auteur examine l’impact de l’implantation des technologies de l’information sur la vie quotidienne des individus, à partir de deux questions particulières. Dans un premier temps, il examine les conditions, les ramifications et les effets liés à l’usage généralisé de banques de données de plus en plus nombreuses et performantes. Dans un deuxième temps, il présente les mécanismes actuels de contrôle de l’usage de ces banques de données. En conclusion, l’auteur propose des solutions basées sur la flexibilité même de la technique informatique et qui permettrait d’assurer une protection accrue des droits et des libertés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Decaestecker, Jean-Paul, and Philippe Raimbqurg. "L'emploi informatique et ses déterminants - modélisation et prévision." Revue d’économie industrielle 34, no. 1 (1985): 33–51. http://dx.doi.org/10.3406/rei.1985.2163.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Bonnat, Catherine. "Modélisation de praxéologies personnelles a priori dans une situation de conception expérimentale en biologieModeling of personal praxeology a priori in an experimental design situation in biology." Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, no. 4 (2020): 070–85. http://dx.doi.org/10.23925/1983-3156.2020v22i4p070-085.

Der volle Inhalt der Quelle
Annotation:
RésuméL’étude porte sur une modélisation de l’erreur dans une situation de biologie conçue dans un environnement informatique pour l’apprentissage humain et qui propose une activité incluant la démarche d’investigation. Cela se traduit par une modélisation de praxéologies personnelles a priori, mises à l’épreuve par l’analyse de productions d’élèves au lycée en France. Cette modélisation, novatrice en biologie, participera dans un second temps à l’évolution de la plateforme vers la mise en place d’un diagnostic automatique des erreurs.Mots clés : praxéologies personnelles, environnement informatique pour l’apprentissage humain, diagnostic automatique des erreurs.AbstractThe study consists in modelling errors in a biology situation implemented in a TEL system. The inquiry-based learning is used in this activity. We introduce the personal praxeology to model errors a priori in this situation. The model has been tested with student’s work in high school classes in France. This modelling work is necessary in order to improve the platform in a future work, which consists in implementing an automatic diagnosis of error.Keywords: personal praxeology, TEL system, automatic diagnosis of error.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Nguyen, J. M., A. Gaultier, and D. Antonioli. "Modélisation des trous de données." Revue d'Épidémiologie et de Santé Publique 65 (May 2017): S99—S100. http://dx.doi.org/10.1016/j.respe.2017.03.112.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

HUGON, Florèn, Xavier NAVARRO, Matt RODRIGUEZ, NEVES Gabriel DAS, Matthieu BERRONEAU, and Frank D'AMICO. "Mise en forme et contrôle qualité de données, l'informatique au service de l'écologie." Naturae 2022, no. 2 (2022): 17–30. https://doi.org/10.5852/naturae2022a2.

Der volle Inhalt der Quelle
Annotation:
Dans de nombreuses disciplines scientifiques, des études expérimentales ou des suivis sur le terrain assurent la récolte de données. Celles-ci sont stockées sur des fichiers bruts avec un format intuitif, permettant une saisie facile par l'expérimentateur. Cependant, ce format brut est rarement directement compatible avec l'analyse des données récoltées et peut engendrer des analyses erronées ; il est nécessaire d'effectuer une mise en forme et un contrôle qualité des données. Face au nombre de jeux de données brutes croissants et toujours plus massifs, la discipline du numérique pour les sciences du vivant s'est développée. La programmation informatique représente une aide précieuse pour les modélisateurs puisqu'elle permet d'automatiser la mise en forme et le contrôle qualité qui nécessitent souvent un nettoyage des données. Dans cet article, nous présentons une collaboration entre informaticien et modélisateur dans le cadre du suivi de l'abondance d'espèces animales. Les données récoltées sur plusieurs feuilles d'un tableur sont regroupées sur une seule et leur qualité est vérifiée. Les diverses fonctionnalités du programme effectuant cette vérification ont été mises en place à l'aide de la méthode « agile », méthode de développement informatique constituée de sprints. Après la fourniture d'une version du programme, un nouveau sprint définit une nouvelle fonctionnalité à mettre en place par l'informaticien dans une nouvelle version du programme. La première version permet l'appropriation du jeu de données par l'informaticien grâce à la fonctionnalité de mise en forme. Une version plus avancée gère l'absence de données, puis d'autres contrôlent la qualité des données récoltées et rapportent le traitement des anomalies détectées – donnée absente ou erronée ou en dehors d'une plage spécifiée – dans un fichier texte. Ce programme informatique a été explicité afin qu'il puisse être ré-approprié et ré-utilisé. Sa version complète est déposée dans GitHub. Le lien est donné en conclusion.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

DUCHASTEL, Jules. "Discours et informatique : des objets sociologiques?" Sociologie et sociétés 25, no. 2 (2002): 157–70. http://dx.doi.org/10.7202/001206ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Le présent article s'intéresse à l'articulation de deux tendances actuelles en sociologie : d'une part, l'importance croissante du discours dans l'explication du social et, d'autre part, l'utilisation importante de méthodes informatisées pour l'étude de données discursives. L'hypothèse développée ici pose que ces deux phénomènes n'ont pus suffisamment provoqué de réflexions épistémologiques et méthodologiques sur les conséquences qu'ils ont eues. La question de la construction du discours comme objet empirique pouvant être pris en charge par la méthode sociologique est considérée dans la perspective large de tout processus d'objectivation. L'examen de divers types d'attitudes vis-à-vis de l'informatique donne lieu, par la suite, à la proposition d'un modèle d'utilisation des méthodes informatisées pour l'analyse des données discursives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Boualit, Robert. "Recueil, transfert, et traitement informatique des données." Bio Tribune Magazine 14, no. 1 (2005): 37–38. http://dx.doi.org/10.1007/bf03000551.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Dupuy-Chessa, Sophie, Sophie Lambert-Lacroix, and Gaëlle Blanco-Lainé. "Un parcours Big Data en alternance dans une licence professionnelle." Statistique et Enseignement 7, no. 1 (2016): 121–26. https://doi.org/10.3406/staso.2016.1344.

Der volle Inhalt der Quelle
Annotation:
L’IUT2 de Grenoble proposera à la rentrée prochaine un parcours Big Data au sein d’une Licence Professionnelle en informatique « Systèmes d’information et Gestion des données ». La formation qui aura lieu en alternance, visera le métier d’analyste des données, c’est-à-dire la personne qui collecte et organise les données. Elle s’appuie sur un bassin industriel large et varié et un contexte académique pluridisciplinaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Boydens, Isabelle. "Les systèmes de méta-information, instruments d'interprétation critique des sources informatiques." History and Computing 8, no. 1 (1996): 11–23. http://dx.doi.org/10.3366/hac.1996.8.1.11.

Der volle Inhalt der Quelle
Annotation:
Fondée sur I'application de la critique historique aux sources informatiques, l'analyse critique d'une base de données administrative beige illustre les apports et limites de la représentation informatique. Elle montre ainsi l'importance des systémes de metainformation, instruments d'interprétation destinés tant aux utilisateurs qu'aux concepteurs de bases de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Lassègue, Jean. "La méthode expérimentale, la modélisation informatique et l'intelligence artificielle." Intellectica. Revue de l'Association pour la Recherche Cognitive 22, no. 1 (1996): 21–65. http://dx.doi.org/10.3406/intel.1996.1515.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Fine, Jeanne. "Statistique, informatique, mathématiques et interdisciplinarité." Statistique et Enseignement 3, no. 2 (2012): 33–59. https://doi.org/10.3406/staso.2012.1258.

Der volle Inhalt der Quelle
Annotation:
Nous discutons en première partie de la place de la statistique par rapport aux mathématiques, d’abord au niveau scientifique puis au niveau de l’enseignement scolaire et universitaire. Dans une deuxième partie, après avoir évoqué des débats en cours sur l’enseignement des mathématiques, nous présentons brièvement diverses propositions, issues de recherches et d’expérimentations, convergeant vers une approche de l’enseignement des mathématiques en interdisciplinarité (initiation à la démarche scientifique et à la modélisation pour résoudre des problèmes issus d’autres disciplines). La formation des professeurs est une condition de réussite des réformes éducatives ; le changement de pratiques professionnelles passe par un changement des représentations que les professeurs ont des élèves, des apprentissages, des disciplines, de l’école, de l’évaluation, … Cela nécessite une formation longue et approfondie qui ne soit pas uniquement disciplinaire. C’est l’objet de la dernière partie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Bina, Nicolas, and Léopold Gramaize. "Constituer une base de données prosopographique par le code. Enjeux et résultats de l’automatisation d’un travail de collecte de données en sciences humaines et sociales." Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique 165-166, no. 1-2 (2025): 212–42. https://doi.org/10.1177/07591063251321680.

Der volle Inhalt der Quelle
Annotation:
Résumé L’accessibilité croissante des ressources numérisées permet d’envisager de nouveaux moyens de production de la recherche en sciences humaines et sociales. A partir d’une recherche prosopographique de science politique portant sur les directeurs et directrices d’administrations centrales, qui occupent les postes de direction des ministères, cet article retrace les travaux qui ont débouché sur l’écriture d’un code informatique constitutif d'une base de données de plus de 140 000 entrées à partir de données publiques (via le Journal officiel ) et privées (via la presse spécialisée). Ce corpus inédit de données résulte du préalable rassemblement de l’information depuis un nombre fini de sources et constitue une mine d’information quasi- exhaustive sur les profils et parcours d’une élite de la fonction publique d’Etat, abondant les travaux de sociologie et de science politique sur les alternances, les structures de l’administration et leur évolution. Au moyen de savoir-faire techniques, de précautions et d’étapes successives détaillées dans cet article, le processus de codage informatique et ses ressources apparaissent comme un puissant vecteur de renouvellement des pratiques prosopographiques en sciences humaines et sociales. En effet, la disponibilité croissante de données et de ressources numérisées permet d'élargir les champs de recherches tout en augmentant considérablement la masse d'informations qu’il est possible de traiter. Les travaux conduits par les deux auteurs identifient de solides points de convergence méthodologiques, ouvrant de larges horizons communs pour la programmation informatique et les sciences humaines et sociales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

ZERHOUI, L., W. MESSAADI, M. CALAFIORE, D. DELEPLANQUE, S. BAYEN, and N. MESSAADI. "CABINET DE MEDECINE GENERALE : OU EN SOMMES NOUS AVEC LE REGLEMENT GENERAL SUR LA PROTECTION DES DONNEES." EXERCER 34, no. 191 (2022): 120–24. http://dx.doi.org/10.56746/exercer.2023.191.120.

Der volle Inhalt der Quelle
Annotation:
Introduction. Le règlement général sur la protection des données (RGPD) est entré en vigueur en 2018 et est applicable aux médecins généralistes (MG). Il n’y a pas de travaux disponibles sur les pratiques de sécurité informatique des MG. Objectifs. Réaliser un état des lieux des différentes pratiques en lien avec la sécurité des données en médecine générale, dans le cadre du RGPD. Méthode. Étude descriptive transversale sur 50 MG du Nord-Pas-de-Calais avec entretiens de type directif. Résultats. Peu de médecins interrogés connaissaient le RGPD et aucun ne pouvait se déclarer conforme au RGPD. Les plus grosses problématiques étaient la gestion des mots de passe, la communication entre professionnels de santé de manière sécurisée et la mise à jour du matériel informatique. Conclusion. La mise en conformité au RGPD est possible. L’amélioration de la situation actuelle passerait par une prise de conscience par les MG de l’importance de la sécurité des données et des conséquences pour leurs patients
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Andreatta, Moreno. "Une introduction musicologique à la recherche « mathémusicale » : aspects théoriques et enjeux épistémologiques." Circuit 24, no. 2 (2014): 51–66. http://dx.doi.org/10.7202/1026184ar.

Der volle Inhalt der Quelle
Annotation:
Cette contribution se propose de présenter certains aspects théoriques et discuter quelques enjeux épistémologiques des recherches menées par l’auteur dans le domaine des rapports entre mathématiques et musique. Après une introduction générale sur le contexte de la recherche « mathémusicale » à l’Ircam et la place du projet misa (Modélisation informatique des structures algébriques en musique) au sein des activités de recherche de l’équipe Représentations musicales, nous discutons le problème de la formalisation algébrique de la théorie des ensembles de classes de hauteurs (Set Theory) et de la théorie transformationnelle (Transformational Theory), deux paradigmes analytiques dont nous avons étudié les aspects théoriques et computationnels à travers une démarche de modélisation informatique des structures et processus musicaux. L’analyse musicale basée sur les ensembles de classes de hauteurs et leurs transformations soulève des questions philosophiques intéressantes, notamment dans ses rapports avec la phénoménologie et les sciences cognitives. En particulier, en confrontant notre point de vue musicologique avec la phénoménologie, nous pouvons avancer l’hypothèse d’une pertinence de la catégorie de « structuralisme phénoménologique » dans une relecture/réactivation de la tradition structurale en analyse musicale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Pérès, Marie. "De la modélisation à l’image virtuelle : images et réel." Figures de l'Art. Revue d'études esthétiques 11, no. 1 (2006): 197–208. http://dx.doi.org/10.3406/fdart.2006.1412.

Der volle Inhalt der Quelle
Annotation:
L’usage de la maquette informatique en sciences humaines et en particulier dans le domaine de l’archéologie prend de l’ampleur. Il ne s’agit pas ici de bâtir un état des lieux exhaustif de ce qui existe en ce domaine mais de se baser sur un certain nombre d’exemples très actuels afin de préciser les rôles et influences de l’usage de la modélisation informatique sur l’image de restitution. La création de maquettes tridimensionnelles fournit un support de projection à l’auteur comme au destinataire. Cette image, même lorsqu’elle cherche la neutralité, oriente la lecture. Le degré de réalisme, la recherche de l’illusion par l’image virtuelle pousse à questionner le degré d’introduction dans le réel de ces images qui nous sont de plus en plus familières. La multiplication des actualisations possibles, tout comme la capacité d’évolution des maquettes tridimensionnelles, change le statut de ces images tout en modifiant la perception du référent. La validation du statut d’image de ces objets qui flirtent avec l’illusion rend nécessaire une interrogation sur la capacité que possède une image à modifier la construction de l’image mentale de l’objet qu’elle désigne chez le destinataire. La tridimensionnalité des maquettes informatiques, comme l’utilisation de la réalité virtuelle, ajoutent encore une dimension à ce questionnement où les images interrogent finalement leur rapport au réel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Verdier, Michèle. "Atelier des Départements Informatique et Statistique et Traitement Informatique des Données - 7 juin 1996." Recherche et pratiques pédagogiques en langues de spécialité - Cahiers de l'APLIUT 16, no. 2 (1996): 93. http://dx.doi.org/10.3406/apliu.1996.1046.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Mann, F., D. Gatinel, S. Morax, and T. Hoang-Xuan. "Modélisation informatique tridimensionnelle de la cavité orbitaire et des paupières." Journal Français d'Ophtalmologie 29, no. 4 (2006): 381–90. http://dx.doi.org/10.1016/s0181-5512(06)77696-3.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Benamara, Farah, and Patrick Saint-Dizier. "Construction de réponses coopératives : du corpus à la modélisation informatique." Revue québécoise de linguistique 32, no. 1 (2006): 199–234. http://dx.doi.org/10.7202/012250ar.

Der volle Inhalt der Quelle
Annotation:
RésuméLes stratégies utilisées pour la recherche d’information dans le cadre du Web diffèrent d’un moteur de recherche à un autre, mais en général, les résultats obtenus ne répondent pas directement et simplement à la question posée. Nous présentons une stratégie qui vise à définir les fondements linguistiques et de communication d’un système d’interrogation du Web qui soit coopératif avec l’usager et qui tente de lui fournir la réponse la plus appropriée possible dans sa forme et dans son contenu. Nous avons constitué et analysé un corpus de questions-réponses coopératives construites à partir des sections Foire Aux Questions (FAQ) de différents services Web aux usagers. Cela constitue à notre sens une bonne expérimentation de ce que pourrait être une communication directe en langue naturelle sur le Web. Cette analyse de corpus a permis d’extraire les caractéristiques majeures du comportement coopératif et de construire l’architecture de notre système informatiquewebcoop,que nous présentons à la fin de cet article.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Morin, Jean-Yves. "Prédicats théoriques et données externes: syntaxe diachronique." Canadian Journal of Linguistics/Revue canadienne de linguistique 33, no. 4 (1988): 443–75. http://dx.doi.org/10.1017/s0008413100013232.

Der volle Inhalt der Quelle
Annotation:
L’application d’une théorie linguistique, essentiellement élaborée à partir de données internes, à des données externes (diachronie, acquisition, performance, pathologie, traitement informatique, etc.) et sa vérification à partir de ces dernières pose de nombreux problèmes. Le premier de ces problèmes est celui de l’exportation des prédicats de la théorie dans un domaine autre (et généralement plus englobant) que celui pour lequel ils ont été définis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Hachaichi, Yasser, Jamel Feki, and Hanene Ben-Abdallah. "Modélisation multidimensionnelle de documents XML centrés-données." Journal of Decision Systems 19, no. 3 (2010): 313–45. http://dx.doi.org/10.3166/jds.19.313-345.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Vescovi, Luc, Alain N. Rousseau, Alain Mailhot, and Jean-Pierre Villeneuve. "Modélisation hydro-bio-chimique du bassin versant de la rivière Saint-Charles." Water Quality Research Journal 34, no. 2 (1999): 317–34. http://dx.doi.org/10.2166/wqrj.1999.015.

Der volle Inhalt der Quelle
Annotation:
Abstract Cet article présente la démarche de modélisation hydrologique qui a été réalisée à l’aide des données existantes sur le bassin versant de la rivière Saint-Charles. Les débits sur le bassin sont obtenus à l’aide du modèle CEQUEAU. Les débits obtenus par CEQUEAU sont utilisés par la suite lors de la modélisation bio-chimique, qui est le sujet d’un second article. Cette étude est réalisée dans l’optique de voir dans quelle mesure une telle approche de modélisation est facile d’utilisation pour le gestionnaire de la ressource eau. Les résultats de simulations de CEQUEAU sont bons pour la partie rurale du bassin. À cause du manque de données disponibles sur les bassins des principaux tributaires, en particulier celui de la rivière Lorette, les résultats y sont moins bons. Pour la partie urbanisée du bassin les différences entre les débits observés et les débits simulés sont imputables au manque de données observées, à une forte influence anthropique sur la gestion de l’eau et vraisemblablement à une trop grande simplification mathématique des processus hydrologiques en milieu urbain.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Legoux, Luc, and Jean-Paul Grémy. "L'exploitation statistique des données administratives : l'exemple de la base informatique de l'OFPRA." Sociétés contemporaines 14-15, no. 2-3 (1993): 43–57. http://dx.doi.org/10.3917/soco.p1993.14n1.0043.

Der volle Inhalt der Quelle
Annotation:
Résumé La création de la base de données informatisées sur les demandes d'asile politique en France a été réalisée en 1989 avec un objectif quasi-exclusif : gérer efficacement le suivi des dossiers afin de rattraper les retards accumulés au cours des années précédentes. Cet objectif a pu être atteint grâce à une sélection des informations conservées dans la base, au détriment de données dont l'intérêt était plus scientifique que pragmatique. Cet article expose les moyens utilisés pour constituer, à partir de cette base administrative, une base de données plus complète, plus maniable, et permettant une exploitation statistique plus détaillée et plus rigoureuse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Jollois, François-Xavier, Florence Muri, Elisabeth Ottenwaelter, Antoine Rolland, and Sylvie Viguier-Pla. "Concours DATAVIZ : retour d'expérience en 1ère année de DUT STID." Statistique et Enseignement 8, no. 2 (2017): 113–24. https://doi.org/10.3406/staso.2017.1374.

Der volle Inhalt der Quelle
Annotation:
Les départements Statistique et Informatique Décisionnelle (STID) des IUT de France ont décidé de créer un challenge dédié aux étudiants de première année. Celui-ci a pour contenu la production d’une visualisation de données (dataviz) autour de données identiques pour tous, par groupes et dans le temps restreint d’une journée. Chaque groupe d’étudiants participant doit proposer une dataviz sur la problématique de leur choix. Nous détaillons ici cette expérience réussie et très enrichissante pour tous.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Selz, Marion. "Traitement informatique de données généalogiques : le logiciel « GEN-PAR »." L'Homme 34, no. 130 (1994): 129–36. http://dx.doi.org/10.3406/hom.1994.369730.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Hosni, Hykel, and Angelo Vulpiani. "Random Thoughts about Complexity, Data and Models." Intellectica. Revue de l'Association pour la Recherche Cognitive 72, no. 1 (2020): 111–22. http://dx.doi.org/10.3406/intel.2020.1948.

Der volle Inhalt der Quelle
Annotation:
Réflexions aléatoires sur la complexité, les données et les modèles. La science des données et l’apprentissage profond ont beaucoup progressé pendant cette dernière décennie. Nous défendons l’idée que, tout en continuant à valoriser cet intéressant champ d’étude, il faudrait résister à la tentation de croire que la prédiction scientifique peut être réduite à l’analyse brute des données. Car la modélisation impose de maitriser l’art de sélectionner les variables pertinentes, comme nous l’illustrons ci-dessous. Plus particulièrement, nous explorons la relation subtile qui existe entre données et modèles, en analysant notamment le rôle joué par la complexité algorithmique. Celle-ci contribua à rendre mathématiquement rigoureuse l’idée selon laquelle comprendre un phénomène empirique équivaut à énoncer des règles pour générer les données qui soient plus simples que les données elles-mêmes. Un point clef pour évaluer le lien entre complexité algorithmique et apprentissage algorithmique est la clarification des concepts de compressibilité, déterminisme et prédictibilité, concepts qui sont liés mais distincts. À ce propos nous montrons que la loi d’évolution d’un système chaotique est compressible, mais qu’une condition initiale typique pour ce système ne l’est pas, ce qui rend les séries temporelles générées par des systèmes chaotiques incompressibles en général. La connaissance des règles qui gouvernent un phénomène empirique n’est donc pas suffisante pour prédire ses issues. Ce qui implique que la compréhension d’un phénomène nécessite plus que l’apprentissage de ses règles à travers des données. La compréhension n’est entière que lorsque l’on est capables de faire une “bonne modélisation”. Il est clair que l’idée de base de la complexité algorithmique s’appuie sur l’analyse du calcul faite par Turing. Ceci motive nos remarques sur cet exemple très parlant de modélisation abstraite basée sur l’analogie, qui est néanmoins fortement informée par les faits empiriques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Santolini, Arnaud, and Agnès Danis. "Le tutorat des objets connectés : modélisation informatique du conflit forme – couleur." Enfance N°3, no. 3 (2019): 375. http://dx.doi.org/10.3917/enf2.193.0375.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Nawej, Frank Nduu, Didier Kapinga Kayembe, Pascal Nawej Tshimwang jr, et al. "Le Dossier Médical Informatisé et le défi de la protection des données individuelles des patients." Revue de l’Infirmier Congolais 6, no. 1 (2022): 1–9. http://dx.doi.org/10.62126/zqrx.2022611.

Der volle Inhalt der Quelle
Annotation:
Introduction. Le dossier médical informatisé tend à se généraliser au sein de nombreux établissements de santé privés de Lubumbashi. Si ses avantages sont indéniables, il sied de noter toutes fois que le DMI présente des faiblesses liées au risque des pertes ou d’usurpation des données patient qui sont réputées sensibles car relevant du secret médical. Méthodes. L’étude a consisté en un questionnaire fermé et écrit élaboré sur la base des standards internationaux de sécurité informatique, en l’occurrence le prescrit du Mémento de sécurité informatique pour les professionnels de santé en exercice libéral Politique Générale de Sécurité des Systèmes d’Information de Santé (PGSSI-S). Sur base d’une participation volontaire, une partie de ce questionnaire a été administrée aux différents professionnels de santé du CMDC utilisant régulièrement le DMI (médecins, infirmiers, techniciens de laboratoire et techniciens d’imagerie) et une autre était destinée aux administrateurs du dit logiciel. Au total 64 personnes ont participé à l’enquête dont 59 utilisateurs et 05 administrateurs du DMI. Résultats. Les données rapportées au sujet de l’accès aux données patient se trouvant sur le DMI, leur conservation ou encore leur partage, suggère un faible niveau de protection. Conclusion. Le caractère sensible des données patient impose au CMDC et aux autres établissements des soins de santé d’améliorer les pratiques de leur personnel utilisant le dossier médical informatisé en vue d’une sécurité optimale dans l’enregistrement, le traitement et la conservation des informations dont la nature relève du secret médical. Mots-clés : Dossier médical, dossier Médical papier, dossier Médical informatisé, données patient.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Gaultier, M. "Une base de données en anthropologie adaptée pour l'archéologie préventive. Usages, enjeux et limites au service de l'archéologie du département d'Indre-et-Loire (Sadil)." Bulletins et Mémoires de la Société d'Anthropologie de Paris 29, no. 3-4 (2017): 159–64. http://dx.doi.org/10.1007/s13219-017-0179-8.

Der volle Inhalt der Quelle
Annotation:
Les pratiques professionnelles en archéologie préventive liées aux contraintes de temps imposées à la réalisation des recherches sur le terrain ou lors de la phase d'étude, ainsi que la normalisation toujours plus aboutie des rapports d'opérations, favorisent l'émergence et le développement d'outils informatiques aptes à seconder archéologues et anthropologues au quotidien. Pour la gestion de séries importantes de données issues de l'étude de nécropoles ou cimetières, la création et le développement d'une base de données s'avèrent ainsi indispensables tant pour le stockage des données brutes que pour leur manipulation : tri, comparaison, analyse. L'outil informatique permet également d'automatiser certaines tâches et de normaliser la présentation des données. Cette note présente l'expérience du service de l'archéologie du département d'Indre-et-Loire en la matière.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Vintila, Ruxandra. "Kalideos Adam : Synthèse et retour d'expérience." Revue Française de Photogrammétrie et de Télédétection, no. 197 (April 22, 2014): 112–18. http://dx.doi.org/10.52638/rfpt.2012.87.

Der volle Inhalt der Quelle
Annotation:
Le projet de recherche ADAM a été une coopération scientifique entre la France et la Roumanie dédiée à l'Assimilation de Données spatiales par Agro-Modélisation, dont le promoteur et commanditaire a été le Centre National d'Études Spatiales. Le papier présente les principales approches utilisées et les résultats novateurs obtenus dans ADAM: constitution de la première base de données de télédétection de référence, production d'une série temporelle d'images Spot XS de haute qualité, méthode de suivi de l'humidité surfacique du sol au long du cycle cultural à partir d'imagesradar, définition de la fréquence optimale de revisite pour l'agriculture à l'échelle de la parcelle, développement d'une stratégie performante d'assimilation variationnelle de données spatiales dans les modèles de fonctionnement du couvert végétal, calcul du modèle adjoint d'un modèle complexe de fonctionnement par différentiation automatique, améliorationde la modélisation du transfert radiatif par la prise en compte de l'agrégation des feuilles dans le couvert (modèle CLAMP).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Lancelot, Renaud, Bernard Faye, Xavier Juanes, M. Ndiaye, L. Pérochon, and Emmanuel Tillard. "La base de données Baobab : un outil pour modéliser la production et la santé des petits ruminants dans les systèmes d'élevage traditionnels au Sénégal." Revue d’élevage et de médecine vétérinaire des pays tropicaux 51, no. 2 (1998): 135–46. http://dx.doi.org/10.19182/remvt.9640.

Der volle Inhalt der Quelle
Annotation:
La base de données relationnelles Baobab a été construite pour faciliter les travaux de synthèse et de modélisation sur la production et la santé des petits ruminants en élevage sédentaire traditionnel au Sénégal. Elle regroupe les données recueillies dans quatre sites représentatifs des principales zones agroécologiques d'élevage ovin et caprin, pendant 15 ans de suivis d'élevages utilisant le système d'information Panurge. Les données individuelles sont relatives à la démographie, à la croissance pondérale et à la santé. Des données sur les pratiques d'élevage et les prophylaxies collectives ont été recueillies à l'échelle du troupeau. Le modèle conceptuel des données (Mcd) a été élaboré selon la méthode entité-relation Merise. La structure de la base de données a été déduite du Mcd. Les données ont été importées depuis Panurge dans la nouvelle base de données à l'aide de programmes comportant des procédures de correction et de contrôles. Baobab comporte 28 tables et occupe un espace disque d'environ 50 méga-octets pour 79 000 animaux recensés. Une nouvelle application a été dérivée du Mcd. Elle permettra de saisir et d'exploiter plus facilement les données provenant de suivis zootechniques individuels, en systèmes sédentaires ou transhumants. Les perspectives d'utilisation de Baobab sont nombreuses et s'orientent selon deux axes principaux : i) la production de référentiels et de synthèses utilisables par les organisations de producteurs et les projets de développement, et permettant les comparaisons entre pays et zones agroécologiques ; ii) la modélisation de la production animale, à l'échelle individuelle (génétique, épidémiologie) ou du troupeau (dynamique de population, aide à la décision).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

ASTRUC, A., A. JOUANNIN, E. LOOTVOET, T. BONNET, and F. CHEVALLIER. "LES DONNEES A CARACTERE PERSONNEL : QUELLES FORMALITES REGLEMENTAIRES POUR LES TRAVAUX DE RECHERCHE EN MEDECINE GENERALE ?" EXERCER 32, no. 172 (2021): 178–84. http://dx.doi.org/10.56746/exercer.2021.172.178.

Der volle Inhalt der Quelle
Annotation:
La loi de 1978 modifiée, dite « Informatique et libertés », a été complétée au niveau européen en 2018 par le Règlement général sur la protection des données (RGPD). Ces réglementations encadrent précisément le traitement des données à caractère personnel (DCP). Le délégué à la protection des données (DPO) est désormais l’acteur incontournable auprès duquel tout chercheur devra se tourner pour un accompagnement et pour la validation des formalités réglementaires à accomplir : inscription au registre des traitements des données, analyse d’impact relative à la protection des données, modalités d’information des sujets de recherche. L’objectif était de clarifier les formalités à accomplir par les chercheurs en médecine générale dans leurs obligations relatives à la protection des DCP en réalisant une synthèse de la documentation existante afin d’aboutir à des conseils pratiques adaptés aux méthodes de recherche les plus courantes en médecine générale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Angjeli, Anila. "FRAD. Modélisation des données d’autorité : les dernières nouvelles !" Question(s) d'autorités, no. 54 (April 1, 2009): 15–16. http://dx.doi.org/10.35562/arabesques.2112.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Barhoumi, M., A. Snoussi, N. Ben Ezzine, K. Mejbri, and A. Bellagi. "Modélisation des données thermodynamiques du mélange ammoniac/eau." International Journal of Refrigeration 27, no. 3 (2004): 271–83. http://dx.doi.org/10.1016/j.ijrefrig.2003.09.005.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Mothe, Caroline, Estelle Delfosse, and Anne Marie Bocquet. "L’analyse de données textuelles assistée par ordinateur." Revue Française de Gestion 47, no. 295 (2021): 11–37. http://dx.doi.org/10.3166/rfg.2021.00525.

Der volle Inhalt der Quelle
Annotation:
L’analyse de données textuelles (ADT), courant qui s’est développé grâce aux techniques de la linguistique informatique, a évolué de l’analyse lexicale à l’analyse sémantique. Cette approche particulière est l’occasion d’une expérience amplifiée par les possibilités graphiques d’interaction et de partage du web. En mobilisant cette approche pour l’analyse d’un corpus de près de 200 documents sur les réseaux de chaleur en France, les auteurs montrent ainsi l’utilité de l’ADT assistée par ordinateur pour les chercheurs, les praticiens et tous les acteurs qui se trouvent face au défi de devoir traiter des données massives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Dupuis, Arnaud, Eric Marie, Patricia Lemoine, Philippe Contal, Christian Gachet, and Béatrice Belcour. "Solution informatique déployée au CQ Grand-Est : concentrateur de données." Transfusion Clinique et Biologique 24, no. 3 (2017): 330. http://dx.doi.org/10.1016/j.tracli.2017.06.153.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!