Добірка наукової літератури з теми "Stockage de données codées"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Stockage de données codées".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Stockage de données codées":

1

Rey, J. F. "Stockage des données en endoscopie digestive." Acta Endoscopica 20, S2 (March 1990): 381–83. http://dx.doi.org/10.1007/bf02970790.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

J.-L.P. "Le stockage et la communication des données." Revue Forestière Française, S (1993): 41. http://dx.doi.org/10.4267/2042/26498.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

VIGNAL, A. "Bases de données en biologie." INRAE Productions Animales 13, HS (December 22, 2000): 187–89. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3836.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bases de données en biologie doivent permettre le stockage d’une quantité croissante d’informations dont la nature est hétérogène. Des entités parfois très différentes sont à représenter, ainsi que leurs relations. De plus, les techniques variées utilisées pour générer les données doivent être prises en compte. De ce fait, il existe un foisonnement de bases de données spécialisées, dont nous décrivons ici les principales, ainsi que leurs interrelations.
4

Hehn, Michel, Gregory Malinowski, and Stéphane Mangin. "Retournement d’aimantation dans un dispositif « Spintronique » par impulsion d’électrons unique ultra-courte." Photoniques, no. 108 (May 2021): 36–39. http://dx.doi.org/10.1051/photon/202110836.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Portée par l’internet des objets et l’intelligence artificielle, la quantité de données générées et stockées augmente de manière exponentielle. A l’horizon 2030, 20 % de l’électricité mondiale sera utilisée pour le stockage et la gestion des données. Une très large majorité des données est stockée sur des surfaces magnétiques. Nous démontrons que nous pouvons retourner l’aimantation d’une couche ferromagnétique, donc écrire de l’information, grâce à un seul pulse laser femto-seconde.
5

Metay, A., B. Mary, D. Arrouays, J. Labreuche, M. Martin, B. Nicolardot, and J. C. Germon. "Effets des techniques culturales sans labour sur le stockage de carbone dans le sol en contexte climatique tempéré." Canadian Journal of Soil Science 89, no. 5 (November 1, 2009): 623–34. http://dx.doi.org/10.4141/cjss07108.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En régions de climat tempéré, les terres cultivées ont un potentiel de stockage de carbone que l’on peut tenter d’utiliser pour réduire d’autant les émissions de CO2 atmosphérique par des pratiques culturales adaptées et notamment par les techniques culturales sans labour (TCSL). Cette capacité de stockage de carbone dans le sol a été évaluée sur l’essai de longue durée de Boigneville (Bassin de Paris, France) et a été comparée aux données de la littérature internationale. Le suivi du stock de carbone du sol sous une rotation maïs-blé indique une tendance à un stockage modéré tant en système labouré (0,10 t C ha-1 an-1 sur 28 ans) qu’en TCSL (respectivement 0,21 t et 0,19 t C ha-1 an-1 pour le travail superficiel et le semis direct sur cette même période). Avec une absence de différence significative entre le semis direct et le travail superficiel, l’effet spécifique moyen des TCSL évalué à 0,10 t C ha-1 an-1 sur 28 ans apparait sensiblement plus faible que celui mesuré sur les 20 premières années et évalué à 0,20 t C ha-1 an-1. Ces valeurs, inférieures à d’autres valeurs largement diffusées par ailleurs, et cette variation décroissante de la capacité de stockage avec la durée de TCSL sont cohérentes avec la tendance moyenne observée à partir d’un large échantillonnage de données de la littérature internationale. L’évolution de ce stockage de carbone est discutée en lien avec les indications sur l’évolution du stock de carbone des sols de cette même région, les indicateurs de stockage potentiel, et les implications liées à l’évolution du climat.Mots clés: Techniques de culture sans labour, travail superficiel, semis direct, stockage de carbone, séquestration, mitigation, gaz à effet de serre, essai de longue durée, climat tempéré
6

Gaultier, M. "Une base de données en anthropologie adaptée pour l'archéologie préventive. Usages, enjeux et limites au service de l'archéologie du département d'Indre-et-Loire (Sadil)." Bulletins et Mémoires de la Société d'Anthropologie de Paris 29, no. 3-4 (March 17, 2017): 159–64. http://dx.doi.org/10.1007/s13219-017-0179-8.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les pratiques professionnelles en archéologie préventive liées aux contraintes de temps imposées à la réalisation des recherches sur le terrain ou lors de la phase d'étude, ainsi que la normalisation toujours plus aboutie des rapports d'opérations, favorisent l'émergence et le développement d'outils informatiques aptes à seconder archéologues et anthropologues au quotidien. Pour la gestion de séries importantes de données issues de l'étude de nécropoles ou cimetières, la création et le développement d'une base de données s'avèrent ainsi indispensables tant pour le stockage des données brutes que pour leur manipulation : tri, comparaison, analyse. L'outil informatique permet également d'automatiser certaines tâches et de normaliser la présentation des données. Cette note présente l'expérience du service de l'archéologie du département d'Indre-et-Loire en la matière.
7

Jouini, Khaled, and Geneviève Jomier. "Modèles de stockage orientés interrogation pour bases de données temporelles." Ingénierie des systèmes d'information 15, no. 1 (February 28, 2010): 61–85. http://dx.doi.org/10.3166/isi.15.1.61-85.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Mbaye, Moussa, Elhadji Faye, Mamoudou Abdoul Toure, and Awa Ba. "Identification des caractéristiques techniques des systèmes de culture et de stockage d’oignon (<i>Allium cepa</i> L.) de la vallée du fleuve Sénégal." International Journal of Biological and Chemical Sciences 17, no. 5 (October 29, 2023): 1832–48. http://dx.doi.org/10.4314/ijbcs.v17i5.5.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La performance des systèmes de culture et de stockage influe fortement sur la qualité de la récolte. L’objectif de cette étude était de produire des données actualisées sur l’état des systèmes de culture d’oignon et son stockage dans la vallée du fleuve Sénégal. La collecte des données a été faite à travers des enquêtes qualitatives auprès de 400 producteurs et de 22 acteurs techniques de la filière. Un questionnaire semi-structuré et un guide d’entretien ont permis de collecter les données. La moyenne et la fréquence ont été utilisées pour les analyses statistiques sur Sphinx v.5. Les résultats ont montré que les techniques de culture demeurent manuelles avec un système d’irrigation gravitaire. Les engrais avec moins de 1 t.ha-1 et les pesticides chimiques à raison de 8 l.ha-1 étaient utilisés, respectivement, dans la fumure des sols et la gestion des ravageurs. En moyenne, les emblavures étaient de 0,99 ha par exploitant et par saison avec un rendement de 14,45 t.ha-1. Le stockage s’était fait dans des hangars qui ne permettaient pas de conserver l’oignon à plus de 2 mois. Les effets de la matière organique sur la qualité et la durée de stockage de l’oignon pourraient être explorés pour l’amélioration de la filière. Performance of growing and storage system impacts highly on harvest quality. The objective of this study was to produce updated data about status of onion growing system and its storage in Senegal river valley. Data collection has been done through qualitative investigation next to 400 producers and 22 technical actors of the path. A semi structured survey and an interview guide allowed to collect data. Mean and frequency have been used for statistical analysis on Sphinx v.5. Results showed that growing technics stay essentially manual with gravitary irrigation system. Fertilizers with less than 1 t.ha-1 and chemical pesticides at 8 l.ha-1 were used, respectively, for soil fertilization and pests management. In mean, cropped lands are 0,99 ha per user and per season with a yield of 14,45 t.ha-1. Storage was performed under sheds which did not allow to store onion over 2 months. Effects of organic matter on quality and storage duration of onion could be explored for the path improvement.
9

Manolescu, Ioana, Andrei Arion, Angela Bonifati, and Andrea Pugliese. "Un modèle de stockage de données XML basé sur les séquences." Ingénierie des systèmes d'information 10, no. 2 (April 24, 2005): 9–37. http://dx.doi.org/10.3166/isi.10.2.9-37.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Brun-Trigaud, Guylaine, Clément Chagnaud, Maeva Seffar, and Jordan Drapeau. "Présentation du projet ANR ECLATS." Les atlas linguistiques galloromans à l'heure numérique : projets et enjeux, no. 35 (October 1, 2020): 71–84. http://dx.doi.org/10.54563/bdba.441.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'ANR ECLATS est un projet transdisciplinaire qui réunit des équipes de géomaticiens, d'informaticiens et de dialectologues autour de la conception d'un outillage logiciel et méthodologique afin de faciliter l'extraction, l'analyse, la visualisation et la diffusion des données contenues dans l'Atlas Linguistique de la France. Chaque objectif donnera lieu à une application en cours de développement : 1) l’extraction de contenus des cartes s'effectue par vectorisation et permettra l'annotation 2) le stockage des cartes numérisées sont mises à disposition dans le site CartoDialect, 3) l'application ShinyDialect facilite la visualisation des données linguistiques, 4) ShinyClass permet la production de cartes interprétatives, enfin 5) DialectoLOD fera la promotion d'une démarche collaborative.

Дисертації з теми "Stockage de données codées":

1

Ali, Muhammad. "Stockage de données codées et allocation de tâches pour les centres de données à faible consommation d'énergie." Electronic Thesis or Diss., CY Cergy Paris Université, 2023. http://www.theses.fr/2023CYUN1243.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les centres de données sont responsables d'une part importante de la consommation mondiale d'énergie. Cette consommation devrait augmenter dans les années à venir, en raison de la demande croissante de services pour les centres de données. Par conséquent, le besoin d'opérations de centres de données efficaces sur le plan énergétique et à faible émission de carbone augmente rapidement.Cette recherche se concentre sur la conception et la mise en œuvre d'un centre de données à faible émission de carbone et à haut rendement énergétique, alimenté par l'énergie solaire et l'hydrogène, ce qui lui confère une indépendance par rapport au réseau électrique. En conséquence, le centre de données est limité par la limite supérieure de la consommation d'énergie, qui est de 10KWh. La contrainte d'utilisation maximale de l'énergie impose plusieurs défis à la conception, à l'utilisation de l'énergie et à la durabilité du centre de données.Ce travail contribue tout d'abord à la conception d'un centre de données à faible consommation d'énergie tout en respectant la contrainte énergétique globale. Nous avons essayé d'économiser l'énergie du centre de données par un choix judicieux du matériel tout en conservant les performances du centre de données. La deuxième contribution de notre travail fournit des protocoles précieux tels que la réparation paresseuse dans le stockage distribué des données, le placement des tâches et les techniques de gestion de l'énergie pour réduire davantage la consommation d'énergie du centre de données. Grâce aux efforts combinés du bon choix de matériel, de protocoles et de techniques, nous avons réduit de manière significative la consommation d'énergie globale du centre de données
Data centers are responsible for a significant portion of global energy consumption. This consumption is expected to grow in the coming years, driven by the increasing demand for data center services. Therefore, the need for energy-efficient, low-carbon data center operations is growing rapidly.This research focuses on designing and implementing a low-carbon, energy-efficient data center powered by solar and hydrogen, granting it independence from the power grid. As a result, the data center is limited by the upper bound on the energy consumption, which is 10KWh. The maximum usage of energy-constraint imposes several challenges to the design, energy usage, and sustainability of the data center.The work first contributes to designing a low-power budget data center while respecting the overall energy constraint. We tried to save the energy usage of the data center through the right choice of hardware while keeping the performance of the data center intact. The second contribution of our work provides valuable protocols like lazy repair in distributed data storage, job placement, and power management techniques to further reduce the data center's energy usage. With the combined efforts of the right choice of hardware, protocols, and techniques, we significantly reduced the overall energy consumption of the data center
2

Jule, Alan. "Etude des codes en graphes pour le stockage de données." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0739.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis deux décennies, la révolution technologique est avant tout numérique entrainant une forte croissance de la quantité de données à stocker. Le rythme de cette croissance est trop importante pour les solutions de stockage matérielles, provoquant une augmentation du coût de l'octet. Il est donc nécessaire d'apporter une amélioration des solutions de stockage ce qui passera par une augmentation de la taille des réseaux et par la diminution des copies de sauvegarde dans les centres de stockage de données. L'objet de cette thèse est d'étudier l'utilisation des codes en graphe dans les réseaux de stockage de donnée. Nous proposons un nouvel algorithme combinant construction de codes en graphe et allocation des noeuds de ce code sur le réseau. Cet algorithme permet d'atteindre les hautes performances des codes MDS en termes de rapport entre le nombre de disques de parité et le nombre de défaillances simultanées pouvant être corrigées sans pertes (noté R). Il bénéficie également des propriétés de faible complexité des codes en graphe pour l'encodage et la reconstruction des données. De plus, nous présentons une étude des codes LDPC Spatiallement-Couplés permettant d'anticiper le comportement de leur décodage pour les applications de stockage de données.Il est généralement nécessaire de faire des compromis entre différents paramètres lors du choix du code correcteur d'effacement. Afin que ce choix se fasse avec un maximum de connaissances, nous avons réalisé deux études théoriques comparatives pour compléter l'état de l'art. La première étude s'intéresse à la complexité de la mise à jour des données dans un réseau dynamique établi et déterminons si les codes linéaires utilisés ont une complexité de mise à jour optimale. Dans notre seconde étude, nous nous sommes intéressés à l'impact sur la charge du réseau de la modification des paramètres du code correcteur utilisé. Cette opération peut être réalisée lors d'un changement du statut du fichier (passage d'un caractère hot à cold par exemple) ou lors de la modification de la taille du réseau. L'ensemble de ces études, associé au nouvel algorithme de construction et d'allocation des codes en graphe, pourrait mener à la construction de réseaux de stockage dynamiques, flexibles avec des algorithmes d'encodage et de décodage peu complexes
For two decades, the numerical revolution has been amplified. The spread of digital solutions associated with the improvement of the quality of these products tends to create a growth of the amount of data stored. The cost per Byte reveals that the evolution of hardware storage solutions cannot follow this expansion. Therefore, data storage solutions need deep improvement. This is feasible by increasing the storage network size and by reducing data duplication in the data center. In this thesis, we introduce a new algorithm that combines sparse graph code construction and node allocation. This algorithm may achieve the highest performance of MDS codes in terms of the ratio R between the number of parity disks and the number of failures that can be simultaneously reconstructed. In addition, encoding and decoding with sparse graph codes helps lower the complexity. By this algorithm, we allow to generalize coding in the data center, in order to reduce the amount of copies of original data. We also study Spatially-Coupled LDPC (SC-LDPC) codes which are known to have optimal asymptotic performance over the binary erasure channel, to anticipate the behavior of these codes decoding for distributed storage applications. It is usually necessary to compromise between different parameters for a distributed storage system. To complete the state of the art, we include two theoretical studies. The first study deals with the computation complexity of data update and we determine whether linear code used for data storage are update efficient or not. In the second study, we examine the impact on the network load when the code parameters are changed. This can be done when the file status changes (from a hot status to a cold status for example) or when the size of the network is modified by adding disks. All these studies, combined with the new algorithm for sparse graph codes, could lead to the construction of new flexible and dynamical networks with low encoding and decoding complexities
3

Borba, Ribeiro Heverson. "L'Exploitation de Codes Fontaines pour un Stockage Persistant des Données dans les Réseaux d'Overlay Structurés." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00763284.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'importante augmentation de la quantité d'informations sur Internet a contribué à une forte demande pour un stockage persistant des données. Les architectures centralisées de stockage de données sont financièrement onéreuses, faiblement évolutives et vulnérables aux attaques car elles constituent un point unique de défaillance du système. Ces dernières années, les architectures pair-à-pair ont mergé comme une alternative pour la mise en place d'une architecture de stockage persistant des données. Les systèmes pair-à-pair sont fondamentalement évolutifs et moins chers que les modèles client-serveur. Cependant, pour construire des systèmes de stockage persistant en utilisant le modèle pair-à-pair, deux défis fondamentaux doivent être abordés. i) Faire face à la dynamique des pairs, en raison de leur connectivité transitoire. ii) Réduire l'impact du comportement malicieux des pairs. La réplication est une technique régulièrement utilisée pour faire face à la connectivité transitoire des systèmes de stockage pair-à-pair. Toutefois, selon le ratio d'arrivées et de départs des pairs dans le système, cette technique présente un impact négatif en termes de stockage et de bande passante. Les réseaux pair-à-pair qui offrent la tolérance aux fautes byzantins, font généralement l'hypothèse que seulement une fraction limitée des pairs dans le système sont des pairs de comportements malveillants. Toutefois, l'estimation de la proportion de pairs malveillants dans un système pair-à-pair est une opération peu fiable. Ainsi, créer une architecture qui fournit le stockage persistant de données fiables et qui permet de faire face à tous ces problèmes est une contribution souhaitable. Dans cette thèse, nous proposons Datacube. Datacube est une architecture pair-à-pair de stockage de données scalable et efficace qui fournit un stockage persistant en utilisant un schéma de redondance hybride sur un réseau overlay structuré basée sur des clusters. Le schéma de redondance hybride proposé par Datacube assure la persistance et l'intégrité des données garantissant une forte résilience aux arrivées et départs de pairs même en présence de pairs malveillants. Datacube repose sur les propriétés des codes fontaines pour mettre en place son schéma de redondance hybride. Les valuations analytiques ont montré que Datacube est notamment performant en termes de disponibilité, de surcharge de stockage et de bande passante. Nous avons aussi effectué des évaluations pratiques concernant les performances de deux types de codes fontaines dans le contexte de systèmes de stockage pair-à-pair. Ces évaluations ont aidé à comprendre l'impact des paramètres de codage sur les performances de Datacube. À notre connaissance, ceci est la première étude complète qui permet aux développeurs d'applications de trouver les valeurs des paramètres de codage adaptés au contexte des réseaux pair-à-pair.
4

Relaza, Théodore Jean Richard. "Sécurité et disponibilité des données stockées dans les nuages." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30009/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec le développement de l'Internet, l'informatique s'est basée essentiellement sur les communications entre serveurs, postes utilisateurs, réseaux et data centers. Au début des années 2000, les deux tendances à savoir la mise à disposition d'applications et la virtualisation de l'infrastructure ont vu le jour. La convergence de ces deux tendances a donné naissance à un concept fédérateur qu'est le Cloud Computing (informatique en nuage). Le stockage des données apparaît alors comme un élément central de la problématique liée à la mise dans le nuage des processus et des ressources. Qu'il s'agisse d'une simple externalisation du stockage à des fins de sauvegarde, de l'utilisation de services logiciels hébergés ou de la virtualisation chez un fournisseur tiers de l'infrastructure informatique de l'entreprise, la sécurité des données est cruciale. Cette sécurité se décline selon trois axes : la disponibilité, l'intégrité et la confidentialité des données. Le contexte de nos travaux concerne la virtualisation du stockage dédiée à l'informatique en nuage (Cloud Computing). Ces travaux se font dans le cadre du projet SVC (Secured Virtual Cloud) financé par le Fond National pour la Société Numérique " Investissement d'avenir ". Ils ont conduit au développement d'un intergiciel de virtualisation du stockage, nommé CloViS (Cloud Virtualized Storage), qui entre dans une phase de valorisation portée par la SATT Toulouse-Tech-Transfer. CloViS est un intergiciel de gestion de données développé au sein du laboratoire IRIT, qui permet la virtualisation de ressources de stockage hétérogènes et distribuées, accessibles d'une manière uniforme et transparente. CloViS possède la particularité de mettre en adéquation les besoins des utilisateurs et les disponibilités du système par le biais de qualités de service définies sur des volumes virtuels. Notre contribution à ce domaine concerne les techniques de distribution des données afin d'améliorer leur disponibilité et la fiabilité des opérations d'entrées/sorties dans CloViS. En effet, face à l'explosion du volume des données, l'utilisation de la réplication ne peut constituer une solution pérenne. L'utilisation de codes correcteurs ou de schémas de seuil apparaît alors comme une alternative valable pour maîtriser les volumes de stockage. Néanmoins aucun protocole de maintien de la cohérence des données n'est, à ce jour, adapté à ces nouvelles méthodes de distribution. Nous proposons pour cela des protocoles de cohérence des données adaptés à ces différentes techniques de distribution des données. Nous analysons ensuite ces protocoles pour mettre en exergue leurs avantages et inconvénients respectifs. En effet, le choix d'une technique de distribution de données et d'un protocole de cohérence des données associé se base sur des critères de performance notamment la disponibilité en écriture et lecture, l'utilisation des ressources système (comme l'espace de stockage utilisé) ou le nombre moyen de messages échangés durant les opérations de lecture et écriture
With the development of Internet, Information Technology was essentially based on communications between servers, user stations, networks and data centers. Both trends "making application available" and "infrastructure virtualization" have emerged in the early 2000s. The convergence of these two trends has resulted in a federator concept, which is the Cloud Computing. Data storage appears as a central component of the problematic associated with the move of processes and resources in the cloud. Whether it is a simple storage externalization for backup purposes, use of hosted software services or virtualization in a third-party provider of the company computing infrastructure, data security is crucial. This security declines according to three axes: data availability, integrity and confidentiality. The context of our work concerns the storage virtualization dedicated to Cloud Computing. This work is carried out under the aegis of SVC (Secured Virtual Cloud) project, financed by the National Found for Digital Society "Investment for the future". This led to the development of a storage virtualization middleware, named CloViS (Cloud Virtualized Storage), which is entering a valorization phase driven by SATT Toulouse-Tech-Transfer. CloViS is a data management middleware developped within the IRIT laboratory. It allows virtualizing of distributed and heterogeneous storage resources, with uniform and seamless access. CloViS aligns user needs and system availabilities through qualities of service defined on virtual volumes. Our contribution in this field concerns data distribution techniques to improve their availability and the reliability of I/O operations in CloViS. Indeed, faced with the explosion in the amount of data, the use of replication can not be a permanent solution. The use of "Erasure Resilient Code" or "Threshold Schemes" appears as a valid alternative to control storage volumes. However, no data consistency protocol is, to date, adapted to these new data distribution methods. For this reason, we propose to adapt these different data distribution techniques. We then analyse these new protocols, highlighting their respective advantages and disadvantages. Indeed, the choice of a data distribution technique and the associated data consistency protocol is based on performance criteria, especially the availability and the number of messages exchanged during the read and write operations or the use of system resources (such as storage space used)
5

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
6

Bouabache, Fatiha. "Stockage fiable des données dans les grilles, application au stockage des images de checkpoint." Paris 11, 2010. http://www.theses.fr/2010PA112329.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les techniques de tolérance aux fautes basées sur les points de reprise s'appuient principalement sur la fiabilité du stockage des images de checkpoint. Dans le cas où ces images ne seraient pas disponibles, le redémarrage du système échoue. L'objectif de cette thèse est de proposer des solutions qui garantissent le stockage fiable et efficace des données en général et des images de checkpoint en particulier. Par fiable, nous voulons dire quelque soit le scénario de pannes qui se produit, du moment qu'il respecte les hypothèses faites par les algorithmes, les images restent accessibles. Et nous entendons par efficace, minimiser le temps nécessaire au stockage des images et donc le temps de transfert. Ceci permettra de réduire le temps d'exécution global des vagues de checkpoint. Pour garantir ces deux points, nous proposons : 1. Un protocole de checkpoint coordonné qui exploite la localisation des images de checkpoint afin de réduire au maximum les communications inter-cluster ; 2. Un service de stockage distribué et structuré en une architecture à trois couches : a) La couche réplication : afin de garantir la fiabilité des données stockées, nous proposons de répliquer les différentes images sur un certain nombre de serveur. Dans cette direction, nous avons proposé deux techniques de réplication hiérarchique adaptées à l'architecture considérée. B) La couche planification : à ce niveau, nous avons travaillé sur l'efficacité du stockage en réduisant le temps de transfert des données sur le réseau. Pour cela, nous proposons d'ordonnancer les transferts au niveau des sources. C) L'outil d'ordonnancement, implémentant le plan de transfert tel que calculé par la couche supérieure
Rollback/recovery solutions rely on checkpoint storage reliability (after a failure, if the checkpoint images are not available, the rollback operation fails). The goal of this thesis is to propose a reliable and an efficient checkpoint storage service. By reliable, we mean that whatever the scenario of failures is, as long as it respects the assumptions made by the algorithms, the checkpoint images are still available. And we mean by efficient, minimizing the time required to transfer and to store the checkpoint images. This will minimize the global execution time of the checkpoint waves. To ensure those two points (reliability and efficiency), we propose: 1. A new coordinated checkpoint protocol which tolerates checkpoint server failures and clusters failures, and ensures a checkpoint storage reliability in a grid environment; 2. A distributed storage service structured on three layers architecture: a) The replication layer: to ensure the checkpoint storage reliability, we propose to replicate the images over the network. Ln this direction, we propose two hierarchical replication strategies adapted to the considered architecture and that exploit the locality of checkpoint images in order to minimize inter-cluster communication. B) The scheduling layer: at this level we work on the storage efficiency by reducing the data transfer time. We propose an algorithm based on the uniform random sampling of possible schedules. C) The scheduling engine: at this layer, we develop a tool that implements the scheduling plan calculated in the scheduling layer
7

Devigne, Julien. "Protocoles de re-chiffrement pour le stockage de données." Caen, 2013. http://www.theses.fr/2013CAEN2032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La protection de la vie privée est un des enjeux majeurs de la société moderne dans laquelle Internet est omnipotent. Dans cette thèse, nous étudions des techniques permettant de réaliser un stockage dématérialisé qui préserve la confidentialité des informations. Nous nous intéressons ainsi à protéger les données stockées tout en permettant à leur propriétaire de les partager avec les personnes de son choix. Le serveur de re-chiffrement, une des primitives proposées par la cryptographie, est la solution que nous décidons de retenir. Tout d'abord, nous donnons une définition d'un système de serveur de re-chiffrement qui regroupe tous les modèles classiques existants. Nous décrivons également les caractéristiques habituelles que peut présenter cette primitive ainsi que son modèle de sécurité. Ensuite, nous nous concentrons plus particulièrement sur certains schémas spécifiques afin d'en améliorer la sécurité. Nous présentons pour cela une méthode qui transforme un schéma sûr contre une attaque à chiffré choisi rejouable en un schéma sûr contre une attaque à chiffré choisi. Nous étudions aussi les schémas fondés sur le chiffrement Hash ElGamal et proposons d'y apporter des modifications afin qu'ils atteignent une meilleure sécurité. Pour terminer et dans le but d'obtenir le stockage le plus fonctionnel possible, nous proposons deux nouveaux modèles. Le premier, que nous appelons serveur de re-chiffrement combiné, permet d'obtenir une gestion dynamique des droits d'accès. Le second, que nous appelons serveur de re-chiffrement sélectif, permet d'obtenir une gestion des droits d'accès plus fine que celle offerte par le serveur de re-chiffrement conditionnel
Privacy is one of the main issues of our modern day society in which the Internet is omnipotent. In this thesis, we study some technics allowing to realise a privacy-preserving cloud storage. In this way, we focus to protect stored data while allowing their owner to share them with people of his choice. Proxy re-encryption, one of the primitives offered by cryptography, is the solution we decide to consider. First, we give a definition of a proxy re-encryption system unifying all existing conventional models. We also describe usual characteristics that this primitive may present and we provide its security model. Then, we focus more precisely on some specific schemes in order to improve their security. In this meaning, we expose a method which turns a scheme secure against a replayable chosen ciphertext attack into a secure scheme against a chosen ciphertext attack. We study schemes based on the Hash ElGamal encryption too and propose some modifications in order to reach a better security. Finally and in order to obtain the most functional cloud storage, we propose two new models. The first one, that we call combined proxy re-encryption, offers dynamic right access. The second one, that we call selective proxy re-encryption, enables a more fine-grained access right control than the one offered by the conditional proxy re-encryption
8

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
9

Obame, Meye Pierre. "Sûreté de fonctionnement dans le nuage de stockage." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S091/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La quantité de données stockées dans le monde ne cesse de croître et cela pose des challenges aux fournisseurs de service de stockage qui doivent trouver des moyens de faire face à cette croissance de manière scalable, efficace, tout en optimisant les coûts. Nous nous sommes intéressés aux systèmes de stockage de données dans le nuage qui est une grande tendance dans les solutions de stockage de données. L'International Data Corporation (IDC) prédit notamment que d'ici 2020, environ 40% des données seront stockées et traitées dans le nuage. Cette thèse adresse les challenges liés aux performances d'accès aux données et à la sûreté de fonctionnement dans les systèmes de stockage dans le nuage. Nous avons proposé Mistore, un système de stockage distribué que nous avons conçu pour assurer la disponibilité des données, leur durabilité, ainsi que de faibles latences d'accès aux données en exploitant des zones de stockage dans les box, les Points de Présence (POP), et les centre de données dans une infrastructure Digital Subscriber Line (xDSL) d'un Fournisseur d'Accès à Internet (FAI). Dans Mistore, nous adressons aussi les problèmes de cohérence de données en fournissant plusieurs critères de cohérence des données ainsi qu'un système de versioning. Nous nous sommes aussi intéressés à la sécurité des données dans le contexte de systèmes de stockage appliquant une déduplication des données, qui est l'une des technologies les plus prometteuses pour réduire les coût de stockage et de bande passante réseau. Nous avons conçu une méthode de déduplication en deux phases qui est sécurisée contre des attaques d'utilisateurs malicieux tout en étant efficace en termes d'économie de bande passante réseau et d'espace de stockage
The quantity of data in the world is steadily increasing bringing challenges to storage system providers to find ways to handle data efficiently in term of dependability and in a cost-effectively manner. We have been interested in cloud storage which is a growing trend in data storage solution. For instance, the International Data Corporation (IDC) predicts that by 2020, nearly 40% of the data in the world will be stored or processed in a cloud. This thesis addressed challenges around data access latency and dependability in cloud storage. We proposed Mistore, a distributed storage system that we designed to ensure data availability, durability, low access latency by leveraging the Digital Subscriber Line (xDSL) infrastructure of an Internet Service Provider (ISP). Mistore uses the available storage resources of a large number of home gateways and Points of Presence for content storage and caching facilities. Mistore also targets data consistency by providing multiple types of consistency criteria on content and a versioning system. We also considered the data security and confidentiality in the context of storage systems applying data deduplication which is becoming one of the most popular data technologies to reduce the storage cost and we design a two-phase data deduplication that is secure against malicious clients while remaining efficient in terms of network bandwidth and storage space savings
10

Secret, Ghislain. "La maintenance des données dans les systèmes de stockage pair à pair." Amiens, 2009. http://www.theses.fr/2009AMIE0111.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes P2P sont conçus pour partager des ressources sur internet. L’indépendance de l’architecture par rapport à un serveur centralisé confère à ces systèmes une très grande résistance aux pannes. Cette propriété rend l’utilisation de cette architecture tout à fait adaptée au stockage pérenne de données, à grande échelle. Cependant un système P2P est caractérisé par la volatilité des pairs qui le composent. Le challenge est d’assurer la pérennité des données dans un environnement de supports de stockage en continuelle mutation. Pour cela, les systèmes de stockage P2P introduisent des schémas de redondance couplés à des mécanismes de régénération des données perdues. Mais les reconstructions nécessaires au maintien de la pérennité des données ne sont pas neutres en termes de charge pour le système. Pour étudier les facteurs qui impactent le plus le coût de maintenance des données, un modèle de système de stockage P2P a été conçu. Ce modèle repose sur un schéma de redondance de type IDA (Information Dispersal Algorithm). Sur la base de ce modèle, un simulateur a été élaboré et le comportement du système vis à vis des coûts de la régénération des données a été analysé. Deux stratégies de reconstruction sont observées. La première repose sur un mécanisme de seuil par rapport au niveau de redondance des données. Elle nécessite un contrôle permanent de l’état des données. La seconde encadre simplement le nombre des reconstructions par un système de quota alloué pour une période de temps donnée. Sur la base d’une analyse stochastique des stratégies, des clés sont proposées pour définir les paramètres du système en fonction du niveau de pérennité visé
Peer to peer systems are designed to share resources on the Internet. The independence of the architecture from a centralized server provides the peer-to-peer networks a very high fault tolerance (no peer is essential to the functioning of the network). This property makes the use of this architecture very suitable for permanent storage of data on a large scale. However, peer to peer systems are characterised by peer’s volatility. Peers connect and disconnect randomly. The challenge is to ensure the continuity of data in a storage media constantly changing. For this, to cope with peer’s volatility, data redundancy schemes coupled with reconstruction mechanism of lost data are introduced. But the reconstructions needed to maintain the continuity of data are not neutral in terms of burden on the system. To investigate factors that impact the higher the data maintenance cost, a model of peer to peer storage system was designed. This model is based on an IDA (Information Dispersal Algorithm) redundancy scheme. Built on this model, a simulator was developed and the system behaviour for the cost of regeneration of the data was analyzed. Two reconstruction strategies are observed. The first mechanism is based on a threshold from the level of data redundancy. It requires constant monitoring of the state data. The second strategy involves a number of reconstructions by a system of quota allocation for a defined period of time. It is less comfortable psychologically because it significantly reduces the control of the data state by abstracting the threshold mechanism. Based on a stochastic analysis of the strategies, keys are provided to define the parameters of the system according to the target level of durability desired

Книги з теми "Stockage de données codées":

1

Farley, Marc. Building storage networks. Berkeley: Osborne/McGraw-Hill, 2000.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Farley, Marc. Building storage networks. 2nd ed. New York: Osborne/McGraw-Hill, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Farley, Marc. Building Storage Networks. New York: McGraw-Hill, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Chesnot, Guy. Logiciels de stockage de données. Vuibert, 2001.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Ross, Margy, and Ralph Kimball. Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2007.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Ross, Margy, and Ralph Kimball. The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling (Second Edition). Wiley, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ross, Margy, and Ralph Kimball. Data Warehouse Toolkit: The Definitive Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Ross, Margy, and Ralph Kimball. Data Warehouse Toolkit: The Definitive Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Ross, Margy, and Ralph Kimball. Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2002.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Ross, Margy, and Ralph Kimball. Data Warehouse Toolkit: The Definitive Guide to Dimensional Modeling. Wiley & Sons, Incorporated, John, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Stockage de données codées":

1

PUTEAUX, Pauline, and William PUECH. "Insertion de données cachées dans le domaine chiffré." In Sécurité multimédia 2, 233–77. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9027.ch7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec le développement de l'informatique en nuage, de nombreux utilisateurs téléchargent leurs données multimédia sur des serveurs distants. Pour assurer leur sécurité, ces données sont généralement chiffrées avant leur transmission et leur stockage. Dans ce chapitre, nous nous intéressons à la problématique du traitement de ces données multimédia chiffrées, et plus particulièrement à l'insertion de données cachées dans le domaine chiffré.
2

POUYLLAU, Stéphane. "Nakala : service de publication de données." In Partage et valorisation des données de la recherche, 107–26. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch6.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis 2013, la très grande infrastructure de recherche (TGIR) Huma-Num offre à la communauté des sciences humaines et sociales (SHS) un service de publication de données, baptisé Nakala. Fondé sur un socle commun, permettant le stockage et l’organisation des fichiers, Nakala s’articule avec des outils d’éditorialisation modulables, donnant la possibilité à chaque projet de recherche de créer sa propre interface web d’accès aux données. En quoi ce dispositif particulier répond aux attentes de la communauté des SHS en France et comment il s’adapte aux politiques d’ouverture des données de la recherche ?

До бібліографії