To see the other types of publications on this topic, follow the link: Tables de hachage distribuées.

Dissertations / Theses on the topic 'Tables de hachage distribuées'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 37 dissertations / theses for your research on the topic 'Tables de hachage distribuées.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fayçal, Marguerite. "Routage efficace pour les réseaux pair-à-pair utilisant des tables de hachage distribuées." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00521935.

Full text
Abstract:
Ce mémoire est une synthèse de nos travaux de recherche menés à Orange Labs (France Télécom R&D) pour répondre à une problématique identifiée par ledit opérateur concernant les flux d’échanges en mode P2P. La montée en puissance du P2P exige de nouveaux systèmes satisfaisant tant les usagers que les opérateurs de réseaux. Les premiers cherchent en permanence une bonne QoS. Les seconds aspirent à l’optimisation de l’usage du réseau et à la réduction des différents coûts d’opération et de maintenance. D’où l’intérêt de cette thèse qui vise à sensibiliser un réseau P2P au réseau IP sous-jacent afin d’aboutir à un système de routage efficace. Nos travaux se focalisent sur les systèmes utilisant des DHTs, après les avoir étudiées et analysées. Ce mémoire commence par une analyse des principaux protocoles de découverte de ressources dynamiques dans les différentes architectures P2P. Les exigences requises pour un routage P2P efficace sont par la suite établies. Il s’en suit une présentation des techniques de génération de l’information de proximité sous-jacente, ainsi que des techniques et principaux systèmes d’exploitation de cette information. Nos travaux de recherche ont abouti à la définition, la conception, la spécification et l’analyse individuelle et comparative de deux systèmes : CAP (Context-Aware P2P system) et NETPOPPS (NETwork Provider Oriented P2P System). Le premier système est sensible au contexte et introduit une sémantique dans les identifiants des pairs et des objets. Le second système est orienté opérateur de réseau, et adapte les flux P2P à la topologie sous-jacente et aux politiques de l’opérateur, tout en simplifiant la gestion des différents identifiants
This dissertation is a synthesis of our research at Orange Labs (formerly France Telecom R&D) to answer a problem identified by the aforesaid network operator and concerning peer-to-peer (P2P) streams. The rise of P2P requires new systems to meet the needs of users, but also those of ISPs and other network operators. The former seek permanently quite noticeable high QoS; the latter aim to optimize the use of network resources and to reduce various operations’ and management costs. Hence the interest of this thesis, that aims to let a P2P network be aware of its underlying IP network in order to achieve a system with an efficient routing mechanism that leads to a win-win situation. Our research focuses on systems based on distributed hash tables (DHT), that we study and analyze first. This dissertation begins with an analysis of the main protocols for discovery of dynamic resources in the different P2P architectures. The requirements for efficient P2P routing are then established. Afterwards, discovery techniques for generating and providing underlay network proximity information are presented, followed by techniques and main systems that exploit such information. Our research led to the definition, design, specification and both individual and comparative analysis of two systems: CAP (Context-Aware P2P system) and NETPOPPS (Network Provider Oriented P2P System). The former introduces semantics in the identifiers of peers and objects and is context-aware. The latter simplifies the management of the different identifiers and is network operator oriented: it enables cooperation between P2P traffic and the underlay’s network operator (its policies and network topology)
APA, Harvard, Vancouver, ISO, and other styles
2

Fayçal, Marguerite. "Routage Efficace pour les Réseaux Pair-à-Pair utilisant des Tables de Hachage Distribuées." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00521935.

Full text
Abstract:
Ce mémoire est une synthèse de nos travaux de recherche menés au sein des laboratoires d'Orange Labs (anciennement France Télécom R&D) pour répondre à une problématique identifiée par ledit opérateur et concernant les flux d'échanges en mode pair-à-pair (P2P). Communément assimilé à un échange de fichiers, le P2P a de nombreuses applications. Il correspond à une évolution du monde du logiciel, des réseaux et des équipements. Au-delà du partage, nous sommes confrontés à une puissance disponible de façon distribuée (en termes de CPU, bande passante, stockage, etc.). La montée en puissance du P2P exige de nouveaux systèmes pouvant satisfaire les besoins des usagers, mais aussi ceux des fournisseurs d'accès à Internet (FAI) et autres opérateurs de réseaux. Les premiers cherchent en permanence une bonne qualité de service (QoS) bien perceptible. Les seconds aspirent à l'optimisation de l'usage des ressources du réseau (notamment la bande-passante) et à la réduction des différents coûts d'opération et de maintenance (dont ceux découlant de leurs accords économiques inter-opérateurs). D'où l'intérêt de nos travaux de recherche qui visent à sensibiliser un réseau P2P au réseau IP sous-jacent, afin d'aboutir à un système de routage P2P efficace, en phase avec les politiques des réseaux d'infrastructures sous-jacents. Ces travaux se focalisent sur les systèmes P2P utilisant des tables de hachage distribuées (DHT), après les avoir étudiées et analysées. Ce mémoire commence par une analyse des principaux protocoles de découverte de ressources dynamiques dans les différentes architectures de réseaux P2P. Les exigences requises pour un routage P2P efficace sont par la suite établies. Il s'en suit une présentation des techniques de génération de l'information de proximité sous-jacente, ainsi que des techniques et principaux systèmes d'exploitation de cette information. Nos travaux de recherche ont abouti à la définition, la conception, la spécification et l'analyse individuelle et comparative de deux systèmes : CAP (Context-Aware P2P system) et NETPOPPS (NETwork Provider Oriented P2P System). Le premier système est sensible au contexte et introduit une sémantique dans les identifiants des pairs et des objets. Le second système est orienté opérateur de réseau, et adapte les flux P2P à la topologie sous-jacente et aux politiques de l'opérateur, tout en simplifiant la gestion des différents identifiants.
APA, Harvard, Vancouver, ISO, and other styles
3

Hidalgo, Castillo Nicolas Andres. "Amélioration de la performance de requêtes complexes sur les systèmes pair-à-pair." Paris 6, 2011. http://www.theses.fr/2011PA066660.

Full text
Abstract:
Les Tables de Hachage Distribuées (DHT) permettent la construction de réseaux pair-à-pair structurés pour des services de stockage persistant, hautement disponibles, et passant à l'échelle. Cependant, les DHTs sont peu efficaces pour gérer des requêtes complexes telles que les requêtes par intervalle. Dans cette thèse, nous nous intéressons particulièrement aux solutions reposant sur des arbres préfixes construit au-dessus des DHTs car ces arbres fournissent une solution portable et passant à l'échelle pour réaliser des requêtes complexes. Cependant, les méthodes de recherche proposées par les arbres préfixes distribués ont une latence importante et génèrent un nombre de messages élevés qui dégradent les performances du système global. De plus, certaines des solutions proposées équilibrent mal la charge des noeuds et sont inefficaces en cas d'arrivées et de départs massifs de noeuds. Dans cette thèse nous avons étendu l'arbre préfixe PHT en proposant deux solutions: PORQUE et ECHO. PORQUE vise à réduire la latence tandis qu'ECHO fournit des recherches avec un faible surcoût. Les résultats des expérimentations confirment que PORQUE et ECHO peuvent réduire la latence et le traffic réseau par rapport à PHT. Nos solutions équilibrent aussi la charge en évitant les goulets d'étranglement dans les noeuds stockant les niveaux supérieurs de l'arbre. Nous avons réalisé nos évaluations sur plusieurs ensembles de données ayant des répartitions de clés différentes. Les résultats montrent que nos solutions sont peu sensibles à l'asymétrie dans la distribution des clés tout en ayant une bonne résistance à la dynamique du réseau.
APA, Harvard, Vancouver, ISO, and other styles
4

Viana, Aline Carneiro. "Localisation et routage dans les réseaux auto organisables à large échelle : des tables de hachage distribuées aux structures d'adressage adaptatives." Paris 6, 2005. http://www.theses.fr/2005PA066191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ngom, Bassirou. "FreeCore : un système d'indexation de résumés de document sur une Table de Hachage Distribuée (DHT)." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS180.

Full text
Abstract:
Cette thèse étudie la problématique de l’indexation et de la recherche dans les tables de hachage distribuées –Distributed Hash Table (DHT). Elle propose un système de stockage distribué des résumés de documents en se basant sur leur contenu. Concrètement, la thèse utilise les Filtre de Blooms (FBs) pour représenter les résumés de documents et propose une méthode efficace d’insertion et de récupération des documents représentés par des FBs dans un index distribué sur une DHT. Le stockage basé sur contenu présente un double avantage, il permet de regrouper les documents similaires afin de les retrouver plus rapidement et en même temps, il permet de retrouver les documents en faisant des recherches par mots-clés en utilisant un FB. Cependant, la résolution d’une requête par mots-clés représentée par un filtre de Bloom constitue une opération complexe, il faut un mécanisme de localisation des filtres de Bloom de la descendance qui représentent des documents stockés dans la DHT. Ainsi, la thèse propose dans un deuxième temps, deux index de filtres de Bloom distribués sur des DHTs. Le premier système d’index proposé combine les principes d’indexation basée sur contenu et de listes inversées et répond à la problématique liée à la grande quantité de données stockée au niveau des index basés sur contenu. En effet, avec l’utilisation des filtres de Bloom de grande longueur, notre solution permet de stocker les documents sur un plus grand nombre de serveurs et de les indexer en utilisant moins d’espace. Ensuite, la thèse propose un deuxième système d’index qui supporte efficacement le traitement des requêtes de sur-ensembles (des requêtes par mots-clés) en utilisant un arbre de préfixes. Cette dernière solution exploite la distribution des données et propose une fonction de répartition paramétrable permettant d’indexer les documents avec un arbre binaire équilibré. De cette manière, les documents sont répartis efficacement sur les serveurs d’indexation. En outre, la thèse propose dans la troisième solution, une méthode efficace de localisation des documents contenant un ensemble de mots-clés donnés. Comparé aux solutions de même catégorie, cette dernière solution permet d’effectuer des recherches de sur-ensembles en un moindre coût et constitue est une base solide pour la recherche de sur-ensembles sur les systèmes d’index construits au-dessus des DHTs. Enfin, la thèse propose le prototype d’un système pair-à-pair pour l’indexation de contenus et la recherche par mots-clés. Ce prototype, prêt à être déployé dans un environnement réel, est expérimenté dans l’environnement de simulation peersim qui a permis de mesurer les performances théoriques des algorithmes développés tout au long de la thèse
This thesis examines the problem of indexing and searching in Distributed Hash Table (DHT). It provides a distributed system for storing document summaries based on their content. Concretely, the thesis uses Bloom filters (BF) to represent document summaries and proposes an efficient method for inserting and retrieving documents represented by BFs in an index distributed on a DHT. Content-based storage has a dual advantage. It allows to group similar documents together and to find and retrieve them more quickly at the same by using Bloom filters for keywords searches. However, processing a keyword query represented by a Bloom filter is a difficult operation and requires a mechanism to locate the Bloom filters that represent documents stored in the DHT. Thus, the thesis proposes in a second time, two Bloom filters indexes schemes distributed on DHT. The first proposed index system combines the principles of content-based indexing and inverted lists and addresses the issue of the large amount of data stored by content-based indexes. Indeed, by using Bloom filters with long length, this solution allows to store documents on a large number of servers and to index them using less space. Next, the thesis proposes a second index system that efficiently supports superset queries processing (keywords-queries) using a prefix tree. This solution exploits the distribution of the data and proposes a configurable distribution function that allow to index documents with a balanced binary tree. In this way, documents are distributed efficiently on indexing servers. In addition, the thesis proposes in the third solution, an efficient method for locating documents containing a set of keywords. Compared to solutions of the same category, the latter solution makes it possible to perform subset searches at a lower cost and can be considered as a solid foundation for supersets queries processing on over-dht index systems. Finally, the thesis proposes a prototype of a peer-to-peer system for indexing content and searching by keywords. This prototype, ready to be deployed in a real environment, is experimented with peersim that allowed to measure the theoretical performances of the algorithms developed throughout the thesis
APA, Harvard, Vancouver, ISO, and other styles
6

Ngom, Bassirou. "FreeCore : un système d'indexation de résumés de document sur une Table de Hachage Distribuée (DHT)." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS180/document.

Full text
Abstract:
Cette thèse étudie la problématique de l’indexation et de la recherche dans les tables de hachage distribuées –Distributed Hash Table (DHT). Elle propose un système de stockage distribué des résumés de documents en se basant sur leur contenu. Concrètement, la thèse utilise les Filtre de Blooms (FBs) pour représenter les résumés de documents et propose une méthode efficace d’insertion et de récupération des documents représentés par des FBs dans un index distribué sur une DHT. Le stockage basé sur contenu présente un double avantage, il permet de regrouper les documents similaires afin de les retrouver plus rapidement et en même temps, il permet de retrouver les documents en faisant des recherches par mots-clés en utilisant un FB. Cependant, la résolution d’une requête par mots-clés représentée par un filtre de Bloom constitue une opération complexe, il faut un mécanisme de localisation des filtres de Bloom de la descendance qui représentent des documents stockés dans la DHT. Ainsi, la thèse propose dans un deuxième temps, deux index de filtres de Bloom distribués sur des DHTs. Le premier système d’index proposé combine les principes d’indexation basée sur contenu et de listes inversées et répond à la problématique liée à la grande quantité de données stockée au niveau des index basés sur contenu. En effet, avec l’utilisation des filtres de Bloom de grande longueur, notre solution permet de stocker les documents sur un plus grand nombre de serveurs et de les indexer en utilisant moins d’espace. Ensuite, la thèse propose un deuxième système d’index qui supporte efficacement le traitement des requêtes de sur-ensembles (des requêtes par mots-clés) en utilisant un arbre de préfixes. Cette dernière solution exploite la distribution des données et propose une fonction de répartition paramétrable permettant d’indexer les documents avec un arbre binaire équilibré. De cette manière, les documents sont répartis efficacement sur les serveurs d’indexation. En outre, la thèse propose dans la troisième solution, une méthode efficace de localisation des documents contenant un ensemble de mots-clés donnés. Comparé aux solutions de même catégorie, cette dernière solution permet d’effectuer des recherches de sur-ensembles en un moindre coût et constitue est une base solide pour la recherche de sur-ensembles sur les systèmes d’index construits au-dessus des DHTs. Enfin, la thèse propose le prototype d’un système pair-à-pair pour l’indexation de contenus et la recherche par mots-clés. Ce prototype, prêt à être déployé dans un environnement réel, est expérimenté dans l’environnement de simulation peersim qui a permis de mesurer les performances théoriques des algorithmes développés tout au long de la thèse
This thesis examines the problem of indexing and searching in Distributed Hash Table (DHT). It provides a distributed system for storing document summaries based on their content. Concretely, the thesis uses Bloom filters (BF) to represent document summaries and proposes an efficient method for inserting and retrieving documents represented by BFs in an index distributed on a DHT. Content-based storage has a dual advantage. It allows to group similar documents together and to find and retrieve them more quickly at the same by using Bloom filters for keywords searches. However, processing a keyword query represented by a Bloom filter is a difficult operation and requires a mechanism to locate the Bloom filters that represent documents stored in the DHT. Thus, the thesis proposes in a second time, two Bloom filters indexes schemes distributed on DHT. The first proposed index system combines the principles of content-based indexing and inverted lists and addresses the issue of the large amount of data stored by content-based indexes. Indeed, by using Bloom filters with long length, this solution allows to store documents on a large number of servers and to index them using less space. Next, the thesis proposes a second index system that efficiently supports superset queries processing (keywords-queries) using a prefix tree. This solution exploits the distribution of the data and proposes a configurable distribution function that allow to index documents with a balanced binary tree. In this way, documents are distributed efficiently on indexing servers. In addition, the thesis proposes in the third solution, an efficient method for locating documents containing a set of keywords. Compared to solutions of the same category, the latter solution makes it possible to perform subset searches at a lower cost and can be considered as a solid foundation for supersets queries processing on over-dht index systems. Finally, the thesis proposes a prototype of a peer-to-peer system for indexing content and searching by keywords. This prototype, ready to be deployed in a real environment, is experimented with peersim that allowed to measure the theoretical performances of the algorithms developed throughout the thesis
APA, Harvard, Vancouver, ISO, and other styles
7

Lu, Tianxiang. "Formal verification of the Pastry protocol." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0179.

Full text
Abstract:
Le protocole Pastry réalise une table de hachage distribué sur un réseau pair à pair organisé en un anneau virtuel de noeuds. Alors qu'il existe plusieurs implémentations de Pastry, il n'y a pas encore eu de travaux pour décrire formellement l'algorithme ou vérifier son bon fonctionnement. Intégrant des structures de données complexes et de la communication asynchrone entre des noeuds qui peuvent rejoindre ou quitter le réseau, ce protocole représente un intérêt certain pour la vérification formelle. La thèse se focalise sur le protocole Join de Pastry qui permet à un noeud de rejoindre le réseau. Les noeuds ayant intégré le réseau doivent avoir une vue du voisinage cohérente entre eux. La propriété principale de correction, appelée CorrectDelivery, assure qu'à tout moment il y a au plus un noeud capable de répondre à une requête pour une clé, et que ce noeud est le noeud le plus proche numériquement à ladite clé. Il n'est pas trivial de maintenir cette propriété en présence de churn. Ce travail nous a permis de découvrir des violations inattendues de la propriété dans les versions publiées de l'algorithme. Sur la base de cette analyse, le protocole IdealPastry est conçu et vérifié en utilisant l'assistant interactif à la preuve TLAPS pour TLA+. Le protocole LuPastry est obtenu en assouplissant certaines hypothèses de IdealPastry. Il est montré formellement que LuPastry vérifie CorrectDelivery sous l'hypothèse qu'aucun noeud ne quitte le réseau. Cette hypothèse ne peut être relâchée à cause du risque de perte de connexion du réseau dans le cas où plusieurs noeuds quittent le réseau en même temps
Pastry is a structured P2P algorithm realizing a Distributed Hash Table over an underlying virtual ring of nodes. Several implementations of Pastry are available, but no attempt has so far been made to formally describe the algorithm or to verify its properties. Since Pastry combines complex data structures, asynchronous communication, and concurrency in the presence of spontaneous join and departure of nodes, it makes an interesting target for verification. This thesis focuses on the Join protocol of Pastry that integrates new nodes into the ring. All member nodes must have a consistent key mapping among each other. The main correctness property, named CorrectDelivery, states that there is always at most one node that can deliver an answer to a lookup request for a key and this node is the numerically closest member node to that key. This property is non-trivial to preserve in the presence of churn. In this thesis, unexpected violations of CorrectDelivery in the published versions of Pastry are discovered and analyzed using the TLA+ model checker TLC. Based on the analysis, the protocol IdealPastry is designed and verified using the interactive theorem prover TLAPS for TLA+. By relaxing certain hypotheses, IdealPastry is further improved to LuPastry, which is again formally proved correct under the assumption that no nodes leave the network. This hypothesis cannot be relaxed in general due to possible network separation when particular nodes simultaneously leave the network
APA, Harvard, Vancouver, ISO, and other styles
8

Picconi, Fabio. "Gestion de la persistance et de la volatilité dans le système de fichiers pair-à-pair Pastis." Paris 6, 2006. http://www.theses.fr/2006PA066627.

Full text
Abstract:
Les Tables de Hachage Distribuées (Distributed Hash Tables, ou DHT, en anglais) permettent la construction de services de stockage persistant, hautement disponible, et passant à l’échelle. Cependant, leur interface put/get s’avère assez limitée : la granularité des accès se fait au niveau fichier, il existe un seul espace d’adressage plat, et la cohérence des répliques doit souvent être gérée par l’application. En revanche, un système de fichiers pair-à-pair fournit une interface plus riche et de haut niveau, tout en garantissant la compatibilité avec les applications existantes. Dans la première partie de cette thèse nous présentons Pastis, un nouveau système de fichiers pair-à-pair reposant sur la DHT PAST. Contrairement aux systèmes précédents, Pastis est complètement décentralisé et supporte un très grand nombre d’utilisateurs en lecture-écriture. D’autre part, il permet aux utilisateurs de choisir entre deux modèles de cohérence en fonction des besoins de l’application. Enfin, Pastis garantit l'authenticité et l'intégrité des données au travers de mécanismes standard de cryptographie. Notre évaluation expérimentale montre que Pastis a des performances comparables ou supérieures à celles des systèmes précédents. Dans la seconde partie nous présentons une étude sur la pérennité des données dans les systèmes de stockage pair-à-pair. Des travaux récents ont proposé d’estimer la probabilité de perte d’une donnée en utilisant un modèle basé sur des chaînes de Markov. Or, les paramètres du modèle proposées jusqu’à maintenant produisent des résultats très différents par rapport à ceux mesurés par la simulation. Nous présentons une nouvelle expression qui permet d’obtenir ces paramètres avec plus de précision, ce qui se traduit par une estimation plus réaliste de la probabilité de perte des données du système.
APA, Harvard, Vancouver, ISO, and other styles
9

Azmy, Noran. "A Machine-Checked Proof of Correctness of Pastry." Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0277.

Full text
Abstract:
Les réseaux pair-à-pair (P2P) constituent un modèle de plus en plus populaire pour la programmation d’applications Internet car ils favorisent la décentralisation, le passage à l’échelle, la tolérance aux pannes et l’auto-organisation. à la différence du modèle traditionnel client-serveur, un réseau P2P est un système réparti décentralisé dans lequel tous les nœuds interagissent directement entre eux et jouent à la fois les rôles de fournisseur et d’utilisateur de services et de ressources. Une table de hachage distribuée (DHT) est réalisée par un réseauP2P et offre les mêmes services qu’une table de hachage classique, hormis le fait que les différents couples (clef, valeur) sont stockés dans différents nœuds du réseau. La fonction principale d’une DHT est la recherche d’une valeur associée à une clef donnée. Parmi les protocoles réalisant une DHT on peut nommer Chord, Pastry, Kademlia et Tapestry. Ces protocoles promettent de garantir certaines propriétés de correction et de performance ; or, les tentatives de démontrer formellement de telles propriétés se heurtent invariablement à des cas limites dans lesquels certaines propriétés sont violées. Tian-xiang Lu a ainsi décrit des problèmes de correction dans des versions publiées de Pastry. Il a conçu un modèle, appelé LuPastry, pour lequel il a fourni une preuve partielle, mécanisée dans l’assistant à la preuve TLA+ Proof System, démontrant que les messages de recherche de clef sont acheminés au bon nœud du réseau dans le cas sans départ de nœuds. En analysant la preuve de Lu j’ai découvert qu’elle contenait beaucoup d’hypothèses pour lesquelles aucune preuve n’avait été fournie, et j’ai pu trouver des contre-exemples à plusieurs de ces hypothèses. La présente thèse apporte trois contributions. Premièrement, je présente LuPastry+, une spécification TLA+ revue de LuPastry. Au-delà des corrections nécessaires d’erreurs, LuPastry+ améliore LuPastry en introduisant de nouveaux opérateurs et définitions, conduisant à une spécification plus modulaire et isolant la complexité de raisonnement à des parties circonscrites de la preuve, contribuant ainsi à automatiser davantage la preuve. Deuxièmement, je présente une preuve TLA+ complète de l’acheminement correct dans LuPastry+. Enfin, je démontre que l’étape finale du processus d’intégration de nœuds dans LuPastry (et LuPastry+) n’est pas nécessaire pour garantir la cohérence du protocole. Concrètement, j’exhibe une nouvelle spécification avec un processus simplifié d’intégration de nœuds, que j’appelle Simplified LuPastry+, et je démontre qu’elle garantit le bon acheminement de messages de recherche de clefs. La preuve de correction pour Simplified LuPastry+ est obtenue en réutilisant la preuve pour LuPastry+, et ceci représente un bon succès pour la réutilisation de preuves, en particulier considérant la taille de ces preuves. Chacune des deux preuves requiert plus de 30000 étapes interactives ; à ma connaissance, ces preuves constituent les preuves les plus longues écrites dans le langage TLA+ à ce jour, et les seuls exemples d’application de preuves mécanisées de théorèmes pour la vérification de protocoles DHT
A distributed hash table (DHT) is a peer-to-peer network that offers the function of a classic hash table, but where different key-value pairs are stored at different nodes on the network. Like a classic hash table, the main function provided by a DHT is key lookup, which retrieves the value stored at a given key. Examples of DHT protocols include Chord, Pastry, Kademlia and Tapestry. Such DHT protocols certain correctness and performance guarantees, but formal verification typically discovers border cases that violate those guarantees. In his PhD thesis, Tianxiang Lu reported correctness problems in published versions of Pastry and developed a model called {\LP}, for which he provided a partial proof of correct delivery of lookup messages assuming no node failure, mechanized in the {\TLA} Proof System. In analyzing Lu's proof, I discovered that it contained unproven assumptions, and found counterexamples to several of these assumptions. The contribution of this thesis is threefold. First, I present {\LPP}, a revised {\TLA} specification of {\LP}. Aside from needed bug fixes, {\LPP} contains new definitions that make the specification more modular and significantly improve proof automation. Second, I present a complete {\TLA} proof of correct delivery for {\LPP}. Third, I prove that the final step of the node join process of {\LP}/{\LPP} is not necessary to achieve consistency. In particular, I develop a new specification with a simpler node join process, which I denote by {\SLP}, and prove correct delivery of lookup messages for this new specification. The proof of correctness of {\SLP} is written by reusing the proof for {\LPP}, which represents a success story in proof reuse, especially for proofs of this size. Each of the two proofs amounts to over 32,000 proof steps; to my knowledge, they are currently the largest proofs written in the {\TLA} language, and---together with Lu's proof---the only examples of applying full theorem proving for the verification of DHT protocols
APA, Harvard, Vancouver, ISO, and other styles
10

Azmy, Noran. "A Machine-Checked Proof of Correctness of Pastry." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0277/document.

Full text
Abstract:
Les réseaux pair-à-pair (P2P) constituent un modèle de plus en plus populaire pour la programmation d’applications Internet car ils favorisent la décentralisation, le passage à l’échelle, la tolérance aux pannes et l’auto-organisation. à la différence du modèle traditionnel client-serveur, un réseau P2P est un système réparti décentralisé dans lequel tous les nœuds interagissent directement entre eux et jouent à la fois les rôles de fournisseur et d’utilisateur de services et de ressources. Une table de hachage distribuée (DHT) est réalisée par un réseauP2P et offre les mêmes services qu’une table de hachage classique, hormis le fait que les différents couples (clef, valeur) sont stockés dans différents nœuds du réseau. La fonction principale d’une DHT est la recherche d’une valeur associée à une clef donnée. Parmi les protocoles réalisant une DHT on peut nommer Chord, Pastry, Kademlia et Tapestry. Ces protocoles promettent de garantir certaines propriétés de correction et de performance ; or, les tentatives de démontrer formellement de telles propriétés se heurtent invariablement à des cas limites dans lesquels certaines propriétés sont violées. Tian-xiang Lu a ainsi décrit des problèmes de correction dans des versions publiées de Pastry. Il a conçu un modèle, appelé LuPastry, pour lequel il a fourni une preuve partielle, mécanisée dans l’assistant à la preuve TLA+ Proof System, démontrant que les messages de recherche de clef sont acheminés au bon nœud du réseau dans le cas sans départ de nœuds. En analysant la preuve de Lu j’ai découvert qu’elle contenait beaucoup d’hypothèses pour lesquelles aucune preuve n’avait été fournie, et j’ai pu trouver des contre-exemples à plusieurs de ces hypothèses. La présente thèse apporte trois contributions. Premièrement, je présente LuPastry+, une spécification TLA+ revue de LuPastry. Au-delà des corrections nécessaires d’erreurs, LuPastry+ améliore LuPastry en introduisant de nouveaux opérateurs et définitions, conduisant à une spécification plus modulaire et isolant la complexité de raisonnement à des parties circonscrites de la preuve, contribuant ainsi à automatiser davantage la preuve. Deuxièmement, je présente une preuve TLA+ complète de l’acheminement correct dans LuPastry+. Enfin, je démontre que l’étape finale du processus d’intégration de nœuds dans LuPastry (et LuPastry+) n’est pas nécessaire pour garantir la cohérence du protocole. Concrètement, j’exhibe une nouvelle spécification avec un processus simplifié d’intégration de nœuds, que j’appelle Simplified LuPastry+, et je démontre qu’elle garantit le bon acheminement de messages de recherche de clefs. La preuve de correction pour Simplified LuPastry+ est obtenue en réutilisant la preuve pour LuPastry+, et ceci représente un bon succès pour la réutilisation de preuves, en particulier considérant la taille de ces preuves. Chacune des deux preuves requiert plus de 30000 étapes interactives ; à ma connaissance, ces preuves constituent les preuves les plus longues écrites dans le langage TLA+ à ce jour, et les seuls exemples d’application de preuves mécanisées de théorèmes pour la vérification de protocoles DHT
A distributed hash table (DHT) is a peer-to-peer network that offers the function of a classic hash table, but where different key-value pairs are stored at different nodes on the network. Like a classic hash table, the main function provided by a DHT is key lookup, which retrieves the value stored at a given key. Examples of DHT protocols include Chord, Pastry, Kademlia and Tapestry. Such DHT protocols certain correctness and performance guarantees, but formal verification typically discovers border cases that violate those guarantees. In his PhD thesis, Tianxiang Lu reported correctness problems in published versions of Pastry and developed a model called {\LP}, for which he provided a partial proof of correct delivery of lookup messages assuming no node failure, mechanized in the {\TLA} Proof System. In analyzing Lu's proof, I discovered that it contained unproven assumptions, and found counterexamples to several of these assumptions. The contribution of this thesis is threefold. First, I present {\LPP}, a revised {\TLA} specification of {\LP}. Aside from needed bug fixes, {\LPP} contains new definitions that make the specification more modular and significantly improve proof automation. Second, I present a complete {\TLA} proof of correct delivery for {\LPP}. Third, I prove that the final step of the node join process of {\LP}/{\LPP} is not necessary to achieve consistency. In particular, I develop a new specification with a simpler node join process, which I denote by {\SLP}, and prove correct delivery of lookup messages for this new specification. The proof of correctness of {\SLP} is written by reusing the proof for {\LPP}, which represents a success story in proof reuse, especially for proofs of this size. Each of the two proofs amounts to over 32,000 proof steps; to my knowledge, they are currently the largest proofs written in the {\TLA} language, and---together with Lu's proof---the only examples of applying full theorem proving for the verification of DHT protocols
APA, Harvard, Vancouver, ISO, and other styles
11

Ktari, Salma. "Interconnexion et routage dans les systèmes pair à pair." Phd thesis, Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00005737.

Full text
Abstract:
Les systèmes pair-à-pair sont l’outil de choix pour réaliser un système informatique autonome tout en assurant sa haute disponibilité au coût relativement faible. Ces systèmes sont toutefois complexes à concevoir et posent divers problèmes liés à la gestion de l’espace virtuel crée. Nous nous concentrons principalement sur deux aspects de ces environnements : l’organisation des nœuds dans l’overlay dynamique et l’organisation des données dans ce dernier. Concernant l’organisation des nœuds dans l’overlay, nous proposons Power DHT, une nouvelle structure d’interconnexion et de routage. Partant de l’hétérogénéité observée dans les tables de hachage déployées, nous transformons dynamiquement la DHT vers une structure décentralisée, exhibant les propriétés d’un graphe sans échelle Nous exploitons les propriétés de cette nouvelle structure et implémentons à la fois le routage KBR, offrant un diamètre plus court à un coût de signalisation moindre, et le support de la diffusion efficace, réalisant ainsi des recherches floues. Quant à l’organisation des données dans l’espace virtuel, nous employons la réplication pour améliorer la disponibilité et l’accessibilité des objets de l’overlay potentiellement instable. Nous avons implémenté et évalué différentes méthodes de réplication. Nous choisissons d’intégrer à notre structure la réplication symétrique. A partir de ces résultats, nous avons conçu un mécanisme d’inondation efficace pour les systèmes P2P structurés. Ce mécanisme, évalué sur notre plate-forme, exploite la structure de la DHT et les propriétés de la réplication symétrique pour permettre les recherches floues dans les DHTs, tout en limitant le coût de signalisation
Due to various attractive properties and their perfect match with the Internet ideology (no central control, intelligence at the edge), the P2P systems have become extremely popular in research, engineering and the Internet usage. However, current P2P systems are too application specific. Application developers therefore have to make a preliminary but crucial decision for a P2P overlay type to use, which strongly influences the application properties and capabilities and often reveals difficult to change later. In this thesis, we propose PowerDHT, a novel scheme to extend the classic DHT-based overlay to a network with scale free-like properties. PowerDHT has a distributed rewiring method to improve the structure of the overlay network to a power-law-like graph. Our scheme is characterized through minimal, typically local-only, changes. Through simulations, we show that our proposal constructs an overlay network with an extended peer’s neighborhood knowledge and a reduced network diameter at no additional cost and that it supports a more effective flooding e. G. For generic search, thus closing the gap between the so-called structured and unstructured P2P networks. To enable efficient complexe queries in Power DHT, we propose an algorithm for an effective flooding procedure with reduced cost in a DHT based P2P network. We describe techniques of flooding and replication that exploit structural constraints to achieve low overhead and higher reliability. These techniques can help to support complex queries in mobile distributed environments with better performance
APA, Harvard, Vancouver, ISO, and other styles
12

Ktari, Salma. "Interconnexion et routage dans les systèmes pair à pair." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005737.

Full text
Abstract:
Les systèmes pair-à-pair sont l'outil de choix pour réaliser un système informatique autonome tout en assurant sa haute disponibilité au coût relativement faible. Ces systèmes sont toutefois complexes à concevoir et posent divers problèmes liés à la gestion de l'espace virtuel (overlay) crée. Nous nous concentrons principalement sur deux aspects de ces environnements : l'organisation des noeuds dans l'overlay dynamique et l'organisation des données dans ce dernier. Concernant l'organisation des noeuds dans l'overlay, nous proposons Power DHT, une nouvelle structure d'interconnexion et de routage. Partant de l'hétérogénéité observée dans les tables de hachage (DHTs) déployées, nous transformons dynamiquement la DHT vers une structure décentralisée, exhibant les propriétés d'un graphe sans échelle (distribution des degrés, faible diamètre). Nous exploitons les propriétés de cette nouvelle structure et implémentons à la fois le routage KBR (Key Based Routing), offrant un diamètre plus court à un coût de signalisation moindre, et le support de la diffusion efficace, réalisant ainsi des recherches floues. Quant à l'organisation des données dans l'espace virtuel, nous employons la réplication pour améliorer la disponibilité et l'accessibilité des objets de l'overlay potentiellement instable. Nous avons implémenté et évalué différentes méthodes de réplication. Nous choisissons d'intégrer à notre structure la réplication symétrique. A partir de ces résultats, nous avons conçu un mécanisme d'inondation efficace pour les systèmes P2P structurés. Ce mécanisme, évalué sur notre plate-forme, exploite la structure de la DHT et les propriétés de la réplication symétrique pour permettre les recherches floues dans les DHTs, tout en limitant le coût de signalisation.
APA, Harvard, Vancouver, ISO, and other styles
13

Lu, Tianxiang. "Formal verification of the Pastry protocol." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0179/document.

Full text
Abstract:
Le protocole Pastry réalise une table de hachage distribué sur un réseau pair à pair organisé en un anneau virtuel de noeuds. Alors qu'il existe plusieurs implémentations de Pastry, il n'y a pas encore eu de travaux pour décrire formellement l'algorithme ou vérifier son bon fonctionnement. Intégrant des structures de données complexes et de la communication asynchrone entre des noeuds qui peuvent rejoindre ou quitter le réseau, ce protocole représente un intérêt certain pour la vérification formelle. La thèse se focalise sur le protocole Join de Pastry qui permet à un noeud de rejoindre le réseau. Les noeuds ayant intégré le réseau doivent avoir une vue du voisinage cohérente entre eux. La propriété principale de correction, appelée CorrectDelivery, assure qu'à tout moment il y a au plus un noeud capable de répondre à une requête pour une clé, et que ce noeud est le noeud le plus proche numériquement à ladite clé. Il n'est pas trivial de maintenir cette propriété en présence de churn. Ce travail nous a permis de découvrir des violations inattendues de la propriété dans les versions publiées de l'algorithme. Sur la base de cette analyse, le protocole IdealPastry est conçu et vérifié en utilisant l'assistant interactif à la preuve TLAPS pour TLA+. Le protocole LuPastry est obtenu en assouplissant certaines hypothèses de IdealPastry. Il est montré formellement que LuPastry vérifie CorrectDelivery sous l'hypothèse qu'aucun noeud ne quitte le réseau. Cette hypothèse ne peut être relâchée à cause du risque de perte de connexion du réseau dans le cas où plusieurs noeuds quittent le réseau en même temps
Pastry is a structured P2P algorithm realizing a Distributed Hash Table over an underlying virtual ring of nodes. Several implementations of Pastry are available, but no attempt has so far been made to formally describe the algorithm or to verify its properties. Since Pastry combines complex data structures, asynchronous communication, and concurrency in the presence of spontaneous join and departure of nodes, it makes an interesting target for verification. This thesis focuses on the Join protocol of Pastry that integrates new nodes into the ring. All member nodes must have a consistent key mapping among each other. The main correctness property, named CorrectDelivery, states that there is always at most one node that can deliver an answer to a lookup request for a key and this node is the numerically closest member node to that key. This property is non-trivial to preserve in the presence of churn. In this thesis, unexpected violations of CorrectDelivery in the published versions of Pastry are discovered and analyzed using the TLA+ model checker TLC. Based on the analysis, the protocol IdealPastry is designed and verified using the interactive theorem prover TLAPS for TLA+. By relaxing certain hypotheses, IdealPastry is further improved to LuPastry, which is again formally proved correct under the assumption that no nodes leave the network. This hypothesis cannot be relaxed in general due to possible network separation when particular nodes simultaneously leave the network
APA, Harvard, Vancouver, ISO, and other styles
14

Rosas, Erika. "Services à base de communautés de confiance dans les réseaux P2P." Paris 6, 2011. http://www.theses.fr/2011PA066573.

Full text
Abstract:
La mise en place d'un service applicatif au sein d'un système pair-à-pair (P2P) nécessite un fonctionnement correct au niveau de chaque pair. Dans un environnement P2P ouvert et hétérogène, certains pairs peuvent toutefois se révéler malicieux et porter atteinte à la fiabilité de l'application à laquelle ils participent. La confiance devient donc un élément essentiel pour encourager la coopération active de chaque pair vis-à-vis de l'application, et améliorer la qualité du service fourni. La présente thèse constitue une étude de solutions pour construire des applications P2P pseudo-fiables, c'est-à-dire avec une probabilité élevée de fournir un service fiable. Nous détaillons dans un premier temps l'état de l'art des activités de recherche dans le domaine de la gestion répartie de la réputation et de la confiance. Puis nous proposons deux solutions complémentaires: un système de réputation novateur en ce qu'il introduit une mesure du risque associé à la valeur de la réputation de chaque pair, ainsi qu'un ensemble d'algorithmes P2P pour établir et maintenir un groupe de pairs réputés fiables. Pour finir nous proposons plusieurs exemples de services applicatifs pseudo-fiables en expliquant comment les bâtir à l'aide de nos solutions, et étudions plus précisément un service de routage pour évaluer le degré de confiance qui peut être atteint grâce à notre approche.
APA, Harvard, Vancouver, ISO, and other styles
15

Ghamri-Doudane, Samir. "Une approche pair à pair pour la découverte de ressources à large échelle." Paris 6, 2008. http://www.theses.fr/2008PA066450.

Full text
Abstract:
Ces dernières années ont vu la consécration du pair à pair comme modèle de référence pour le partage de ressources. Toutefois, les technologies proposées arrivent difficilement à concilier efficacité de fonctionnement, flexibilité des recherches et distribution complète de l’architecture. Dans cette thèse, nous étudions les différentes approches existantes et nous détaillons notre proposition pour un système de découverte de ressources qui puisse répondre aux différents besoins applicatifs tout en exhibant des propriétés d’adaptation à des environnements de déploiement hétérogènes. Le système ainsi proposé offre un outil de recherche déterministe, efficace et flexible. Ses performances sont comparées à celles d’autres systèmes existants. Puis, nous concentrons notre étude sur la répartition de charge en proposant des mécanismes complémentaires, dont l’évaluation montre que leur utilisation combinée garantit une répartition équitable des charges de stockage, de traitement et de routage.
APA, Harvard, Vancouver, ISO, and other styles
16

Cunha, De Almeida Eduardo. "Test et Validation des Systémes Pair-à-pair." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00451521.

Full text
Abstract:
Le pair-à-pair (P2P) offre de bonnes solutions pour de nombreuses applications distribuées, comme le partage de grandes quantités de données et/ou le support de collaboration dans les réseaux sociaux. Il apparaît donc comme un puissant paradigme pour développer des applications distribuées évolutives, comme le montre le nombre croissant de nouveaux projets basés sur cette technologie. Construire des applications P2P fiables est difficile, car elles doivent être déployées sur un grand nombre de noeuds, qui peuvent être autonomes, refuser de répondre à certaines demandes, et même quitter le système de manière inattendue. Cette volatilité des noeuds est un comportement commun dans les systèmes P2P et peut être interprétée comme une faute lors des tests. Dans cette thèse, nous proposons un cadre et une méthodologie pour tester et valider des applications P2P. Ce cadre s'appuie sur le contrôle individuel des noeuds, permettant de contrôler précisément la volatilité des noeuds au cours de leur exécution. Nous proposons également trois différentes approches de contrôle d'exécution de scénarios de test dans les systèmes distribués. La première approche étend le coordonnateur centralisé classique pour gérer la volatilité des pairs. Les deux autres approches permettent d'éviter le coordinateur central afin de faire passer à l'échelle l'exécution des cas de tests. Nous avons validé le cadre et la méthodologie à travers la mise en oeuvre et l'expérimentation sur des applications P2P open-source bien connues (FreePastry et OpenChord). Les expérimentations ont permis de tester le comportement des systèmes sur différentes conditions de volatilité, et de détecter des problèmes d'implémentation complexes.
APA, Harvard, Vancouver, ISO, and other styles
17

Yakouben, Hanafi. "Lh*rs p2p : une nouvelle structure de données distribuée et scalable pour les environnements Pair à Pair." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00872124.

Full text
Abstract:
Nous proposons une nouvelle structure de données distribuée et scalable appelée LH*RSP2P conçue pour les environnements pair à pair(P2P).Les données de l'application forment un fichier d'enregistrements identifiés par les clés primaires. Les enregistrements sont dans des cases mémoires sur des pairs, adressées par le hachage distribué (LH*). Des éclatements créent dynamiquement de nouvelles cases pour accommoder les insertions. L'accès par clé à un enregistrement comporte un seul renvoi au maximum. Le scan du fichier s'effectue au maximum en deux rounds. Ces résultats sont parmi les meilleurs à l'heure actuelle. Tout fichier LH*RSP2P est également protégé contre le Churn. Le calcul de parité protège toute indisponibilité jusqu'à k cases, où k ≥ 1 est un paramètre scalable. Un nouveau type de requêtes, qualifiées de sûres, protège également contre l'accès à toute case périmée. Nous prouvons les propriétés de notre SDDS formellement par une implémentation prototype et des expérimentations. LH*RSP2P apparaît utile aux applications Big Data, sur des RamClouds tout particulièrement
APA, Harvard, Vancouver, ISO, and other styles
18

Saad, Radwane. "Conception d'une architecture pair-à-pair orientée opérateur de services." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00554433.

Full text
Abstract:
Les paradigmes et architectures du pair-à-pair (P2P) sont au centre des réalisations d’applications à grande échelle de tout type. Il est nécessaire d’intégrer un niveau de contrôle sur de telles applications. De telles applications seront ainsi opérées et auront comme maître d’œuvre un opérateur de services. Dans la pratique actuelle les entités pairs partageant des ressources se placent d’une manière aléatoire sur un large réseau physique (IP). Nous proposons la conception d’une architecture globale pour la mise en place de telles applications sur des plateformes de type P2P. Dans ce paradigme il est possible d’isoler trois principales composantes : la première est celle qui concerne le service applicatif, la deuxième est le routage (ou la recherche), la troisième est celle qui traite du transport des données. Ce travail consiste à optimiser chaque composante du modèle P2P. Ces études nous permettent de spécifier des structures pour trois principales contributions. La première a pour objectif de cloisonner le trafic P2P et, après généralisation, d’appliquer un algorithme sensible au contexte où chaque groupe de pairs (appartenant à un même système autonome par exemple) est basé sur une DHT (Distributed Hash Table). La seconde est d’accélérer le transfert des données à l’aide du mécanisme FEC (Forward Error Correction). La troisième est d’intégrer une entité de Contrôle/Gestion. BitTorrent est le protocole choisi au niveau transport sur une architecture intégrant ces contributions. L’architecture SPOP (Service Oriented Provider P2P) a été validée par simulation et grâce à une application de sécurité de défense contre les attaques DDoS
The paradigms and architectures of overlay networks and especially Peer-to-Peer (P2P) networks became at the center of all types of large-scale applications achievements. It is necessary to incorporate a level of control over such applications. Such applications are would be deployed with an Service Provider as the principal control entity. In current practice, the entities peers sharing resources are placed in a random way on a large physical network (IP). We propose the design of an overall architecture for the implementation of such applications on P2P platforms type. In the P2P paradigm, it is possible to isolate three main components: the first is the proper service application, the second one is for the routing (or information lookup), the third one is for the data transport. This work consists in optimizing each P2P component to achieve best performances for different application requirements. These results may lead us to specific structures for three principal contributions. The first one has for objective to portion P2P traffic that is generalized by applying a Context-Aware algorithm (peers in the same autonomous system for example) is based on a DHT (Distributed Hash Table). The second one is to speed up data transfer with FEC (Forward Error Correction). BitTorrent is the data transport protocol chose for the architecture SPOP (Service Provider Oriented P2P) that integrates these contributions. This architecture is validated by simulations and a security application against DDoS attacks
APA, Harvard, Vancouver, ISO, and other styles
19

Saad, Radwane. "Conception d'une architecture Pair-à-Pair orientée opérateur de services." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00554433.

Full text
Abstract:
Les paradigmes et architectures du pair-à-pair (P2P) sont au centre des réalisations d'applications à grande échelle de tout type. Il est nécessaire d'intégrer un niveau de contrôle sur de telles applications. De telles applications seront ainsi opérées et auront comme maître d'œuvre un opérateur de services. Dans la pratique actuelle les entités pairs partageant des ressources se placent d'une manière aléatoire sur un large réseau physique (IP). Nous proposons la conception d'une architecture globale pour la mise en place de telles applications sur des plateformes de type P2P. Dans ce paradigme il est possible d'isoler trois principales composantes : la première est celle qui concerne le service applicatif, la deuxième est le routage (ou la recherche), la troisième est celle qui traite du transport des données. Ce travail consiste à optimiser chaque composante du modèle P2P. Ces études nous permettent de spécifier des structures pour trois principales contributions. La première a pour objectif de cloisonner le trafic P2P et, après généralisation, d'appliquer un algorithme sensible au contexte où chaque groupe de pairs (appartenant à un même système autonome par exemple) est basé sur une DHT (Distributed Hash Table). La seconde est d'accélérer le transfert des données à l'aide du mécanisme FEC (Forward Error Correction). La troisième est d'intégrer une entité de Contrôle/Gestion. BitTorrent est le protocole choisi au niveau transport sur une architecture intégrant ces contributions. L'architecture SPOP (Service Oriented Provider P2P) a été validée par simulation et grâce à une application de sécurité de défense contre les attaques DDoS
APA, Harvard, Vancouver, ISO, and other styles
20

Eisenbarth, Jean-Philippe. "Analyse, valorisation et protection des réseaux pair-à-pair de blockchains publiques." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0213.

Full text
Abstract:
Les blockchains reposent sur des réseaux P2P essentiels à leur bon fonctionnement puisqu'ils assurent la dissémination des transactions et des blocs à l'ensemble des parties. Alors que Bitcoin et Ethereum - les deux principales blockchains publiques - capitalisent aujourd'hui des milliers de milliards de dollars, attirant chaque jour de nouveaux utilisateurs, peu d'études s'intéressent aux aspects réseau bien que la littérature montre que de nombreux problèmes peuvent réduire la fiabilité des réseaux P2P publics. Dans cette thèse, nous nous sommes intéressés dans un premier temps à la supervision des réseaux P2P des blockchains Bitcoin et Ethereum. Nous avons implanté un crawler pour chaque réseau capable de découvrir tous les pairs connectés et avons analysé les données issues de campagnes de mesure de plusieurs mois. Différents critères pouvant affecter la fiabilité du réseau ont été étudiés, tels que le nombre de pairs, leur distribution du point de vue géographique ou du réseau IP, leur taux d'attrition, la proportion de clients aux vulnérabilités connues, l'existence de motifs journaliers de connexion ou encore la capacité d'inférer la topologie. Il apparaît que les deux réseaux montrent de bonnes propriétés sur tous ces points. Partant du constat que, d'une part, le réseau P2P d'Ethereum basé sur une table de hachage distribuée (DHT) est largement inexploité, car aucune donnée n'est stockée dans la DHT, et que, d'autre part, le stockage des données de la blockchain ne fait que croître (ce qui posera des problèmes à terme), nous avons étudié dans un second temps le stockage des données du principal client d'Ethereum (Geth) et sa manière de synchroniser l'état de la blockchain entre les pairs. Nous avons conçu une nouvelle architecture distribuée de stockage pour Ethereum tirant parti de la DHT, rétrocompatible avec les clients actuels et pouvant réduire l'espace disque, utilisé pour le stockage long terme, de 95% (58% du stockage total) sans impact sur les garanties ou les performances de la blockchain Ethereum. Le stockage des données sur la DHT la rend cependant plus intéressante à attaquer, en particulier par des attaques Sybil localisées. Nous avons donc analysé les pairs d'Ethereum à la recherche de motifs pouvant traduire des attaques Sybil et montré l'existence de milliers de nœuds suspects regroupant un grand nombre d'identifiants pour une même adresse IP (jusqu'à 10000/IP). Nous avons finalement conçu et implanté une architecture de protection contre les attaques Sybils. Celle-ci se base sur un crawler détectant les nœuds suspects en temps réel, un smart contract structurant l'information et la distribuant à tous les pairs, et enfin une révocation complètement distribuée, chaque pair constatant lui-même l'attaque et coupant ses connexions aux nœuds Sybils. La mise en œuvre sur un réseau de test Ethereum a montré l'efficacité de l'architecture proposée
Blockchains rely on P2P networks that are essential to their proper functioning, as they ensure the dissemination of transactions and blocks to all parties.While Bitcoin and Ethereum - the two main public blockchains - are now worth trillions of dollars, attracting new users every day, few studies focus on the network aspects, although the literature shows that many problems can reduce the reliability of public P2P networks.In this thesis, we first focused on the monitoring of the P2P networks of the Bitcoin and Ethereum blockchains.We implemented a crawler for each network able to discover all connected peers and analyzed data from several months of measurement campaigns.Different criteria that can affect the reliability of the network were studied, such as the number of peers, their geographical distribution, their distribution over the IP network, the churn, the proportion of clients with known vulnerabilities, the existence of daily connection patterns or the ability to infer topology. It appears that both networks show good properties on all these points.Starting from the observation that, on the one hand, the Ethereum P2P network based on a distributed hash table (DHT) is largely untapped, as no data is stored in the DHT, and on the other hand, thestorage of the blockchain data is only growing (which will eventually be problematic),we studied in a second time the data storage of the main client of Ethereum(Geth) and its way of synchronizing the state of the blockchain between the peers. We have designeda new distributed storage architecture for Ethereum taking advantage of the DHT, backward compatible with the current clients and able to reduce the disk space, used for long-term storage, by 95% (58% of the total storage) without impacting the guarantees or the performances of the Ethereum blockchain.However, storing data on the DHT makes it more prone to attacks, especially Sybil attacks.We therefore analyzed Ethereum peers for patterns that could reflect Sybil attacks and showed the existence of thousands of suspicious nodes grouping many identifiers for a single IP address (up to 10000/IP).We finally designed and implemented a protection architecture against Sybil attacks. It is based on a crawler detecting suspicious nodes in real time, a smart contract structuring the information and distributing it to all peers, and finally a fully-distributed revocation system, each peer noticing itself the attack and removing its connections.The deployment on an Ethereum test network has shown the effectiveness of the proposed architecture
APA, Harvard, Vancouver, ISO, and other styles
21

Doyen, Guillaume. "Supervision des réseaux et services pair à pair." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00012095.

Full text
Abstract:
Le modèle pair à pair (P2P) est aujourd'hui utilisé dans des environnements contraints. Néanmoins, pour pouvoir garantir un niveau de service, il requiert l'intégration d'une infrastructure de supervision adaptée. Ce dernier point constitue le cadre de notre travail. Concernant la modélisation de l'information de gestion, nous avons conçu une extension de CIM pour le modèle P2P. Pour la valider, nous l'avons implantée sur Jxta. Nous avons ensuite spécialisé notre modèle de l'information pour les tables de hachage distribuées (DHT). Nous avons abstrait le fonctionnement des DHTs, proposé un ensemble de métriques qui caractérisent leur performance, et déduit un modèle de l'information qui les intègre. Enfin, concernant l'organisation du plan de gestion, nous avons proposé un modèle hiérarchique, qui permet aux pairs de s'organiser selon une arborescence de gestionnaires et d'agents. Cette proposition a été mise en oeuvre sur une implantation de Pastry.
APA, Harvard, Vancouver, ISO, and other styles
22

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0181.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC
Nowadays, information technologies provide users ability to work with anyone, at any time, from everywhere and with several heterogeneous devices. This evolution fosters a new distributed trustworthy collaboration model where users can work on shared documents with whom they trust. Multi-synchronous collaboration is widely used for supporting collaborative work by maintaining simultaneous streams of user activities which continually diverge and converge. However, this model lacks support on how usage restrictions on data can be expressed and checked within the model. This thesis proposes "C-PPC", a multi-synchronous contract-based and trust-aware collaboration model. In this model, contracts are used as usage rules and users collaborate according to trust levels they have on others computed according to contract compliance. We formalize contracts by using deontic concepts: permission, obligation and prohibition. Contracts are enclosed in logs of operations over shared data. The C-PPC model provides a mechanism for merging data changes and contracts. Any user can audit logs at any time and auditing results are used to update user trust levels based on a trust metric. We propose a solution relying on hash-chain based authenticators that ensures integrity of logs and user accountability. We provide algorithms for constructing authenticators and verifying logs and prove their correctness. A set of experimental results shows the feasibility of the C-PPC model
APA, Harvard, Vancouver, ISO, and other styles
23

Bouabid, Amira. "Contribution à la conception d'interfaces homme-machine distribuées sur tables interactives avec objets tangibles." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0004.

Full text
Abstract:
Cette thèse s’inscrit dans le domaine de l’Interaction Homme-Machine. Elle vise à mettre l’accent sur les capacités collaboratives à distance des tables interactives à interaction tangible. La collaboration co-localisée sur les tables interactives a été traitée lors de plusieurs travaux antérieurs. Par contre peu d’études ont été consacrées à exploiter les capacités des tables interactives (précisément celles à interaction purement tangible) afin de faciliter la collaboration à distance. C’est face à ce constat et en raison de l’importance accordée à ces nouvelles plateformes que nous avons proposé une extension d’un modèle de contexte afin de prendre en considération des caractéristiques liées à la collaboration distante en exploitant des tables interactives tangibles. Pour cela, nous avons dans un premier temps croisé un ensemble de situations de collaboration avec des catégories d’objets tangibles génériques, appelés tangigets. Ce croisement a donné naissance à un ensemble de catégories d’objets capables de réaliser une collaboration distante via des tables interactives. Afin de tester notre proposition, nous avons développé une application collaborative tournant sur deux tables interactives de type TangiSense v2, résultat de projets ANR antérieurs. Afin d’évaluer l’ensemble des éléments proposés dans cette thèse, une étude a été menée en laboratoire. Un ensemble de perspectives de recherche termine le mémoire
This thesis contributes to the Human-Computer Interaction domain. It aims to focus on collaborative remote capabilities of interactive tabletops with tangible interaction. Co-located collaboration on interactive tabletops has been dealt with in several previous works. But few studies have been devoted to exploiting the capabilities of interactive tabletops (specifically those with purely tangible interaction) in order to improve remote collaboration. Consequently, due also to the importance given to these new platforms, we have proposed an extension of a context model in order to take into consideration characteristics of remote collaboration exploiting tangible interactive tabletops. For this, we first crossed a set of collaborative situations with categories of generic tangible objects, called tangigets. This crossing gave birth to a set of categories of objects able to achieve a remote collaboration via interactive tabletops. In order to test our proposal, we have developed a collaborative application running on two TangiSense v2 interactive tabletops, resulting from previous ANR projects. In order to evaluate the whole of the elements proposed in this thesis, a study was conducted in the laboratory. A set of research prospects finishes the thesis
APA, Harvard, Vancouver, ISO, and other styles
24

Migault, Daniel. "Naming and security in a mobile, multihomed and multiple interfaces environement." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0033.

Full text
Abstract:
Une des problématiques majeure de sécurité pour les opérateur est de permettre à ses utilisateurs de maintenir la sécurité d’une communication même au travers d’un réseau qui ne soit pas de confiance. Pour l’utilisateur, une communication est établie entre deux identifiants, et ceci indépendamment des mouvements et changements de réseau de l’utilisateur. Autrement dit, l’opérateur doit permettre cette communication entre identifiants possible grâce au système DNS, et fournir les mécanismes réseaux nécessaires afin que la communication puisse être maintenue quand le client bouge et change d’adresse. Dans cette thèse nous nous somme concentrés sur les aspects sécurités et plus exactement: - DNSSEC: DNSSEC définit comme sécuriser la résolution d’un nom de domaine. La sécurité a un coût que nous commençons par évaluer avant de proposer des architectures permettant aux ISPs de migrer des plateformes de Service de Résolution de DNS vers DNSSEC. - IPsec: IPsec définit comment sécuriser une communication IP. Dans cette thèse nous définissons une extension qui permet à un utilisateur de maintenir une communication sécurisée par IPsec pour un terminal mobile, Multihomé, et avec de Multiples Interfaces
ISPs are concerned about providing and maintaining the level of security of its End User’s communications. A communication is initiated by the End User with a name, and goes on by exchanging packets between two IP addresses. In this thesis, we focused our attention on two main points: (1) providing a secure Naming service, and (2) making IPsec communication resilient to IP address modification, addition or lost of an interface. We designed MOBIKE-X for that purpose and propose it as a standard at the IETF
APA, Harvard, Vancouver, ISO, and other styles
25

Tucker, Ida. "Chiffrement fonctionnel et signatures distribuées fondés sur des fonctions de hachage à projection, l'apport des groupes de classe." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN054.

Full text
Abstract:
Un des enjeux actuels de la recherche en cryptographie est la mise au point de primitives cryptographiques avancées assurant un haut niveau de confiance. Dans cette thèse, nous nous intéressons à leur conception, en prouvant leur sécurité relativement à des hypothèses algorithmiques bien étudiées. Mes travaux s'appuient sur la linéarité du chiffrement homomorphe, qui permet d'effectuer des opérations linéaires sur des données chiffrées. Précisément, je suis partie d'un tel chiffrement, introduit par Castagnos et Laguillaumie à CT-RSA'15, ayant la particularité d'avoir un espace des messages clairs d'ordre premier. Afin d'aborder une approche modulaire, j'ai conçu à partir de ce chiffrement des outils techniques (fonctions de hachage projectives, preuves à divulgation nulle de connaissances) qui offrent un cadre riche se prêtant à de nombreuses applications. Ce cadre m'a d'abord permis de construire des schémas de chiffrement fonctionnel; cette primitive très expressive permet un accès mesuré à l'information contenue dans une base de données chiffrée. Puis, dans un autre registre, mais à partir de ces mêmes outils, j'ai conçu des signatures numériques à seuil, permettant de partager une clé secrète entre plusieurs utilisateurs, de sorte que ceux-ci doivent collaborer afin de produire des signatures valides. Ce type de signatures permet entre autres de sécuriser les portefeuilles de crypto-monnaie. De nets gains d'efficacité, notamment en termes de bande passante, apparaissent en instanciant ces constructions à l'aide de groupes de classes. Mes travaux se positionnent d'ailleurs en première ligne du renouveau que connait, depuis quelques années, l’utilisation de ces objets en cryptographie
One of the current challenges in cryptographic research is the development of advanced cryptographic primitives ensuring a high level of confidence. In this thesis, we focus on their design, while proving their security under well-studied algorithmic assumptions.My work grounds itself on the linearity of homomorphic encryption, which allows to perform linear operations on encrypted data. Precisely, I built upon the linearly homomorphic encryption scheme introduced by Castagnos and Laguillaumie at CT-RSA'15. Their scheme possesses the unusual property of having a prime order plaintext space, whose size can essentially be tailored to ones' needs. Aiming at a modular approach, I designed from their work technical tools (projective hash functions, zero-knowledge proofs of knowledge) which provide a rich framework lending itself to many applications.This framework first allowed me to build functional encryption schemes; this highly expressive primitive allows a fine grained access to the information contained in e.g., an encrypted database. Then, in a different vein, but from these same tools, I designed threshold digital signatures, allowing a secret key to be shared among multiple users, so that the latter must collaborate in order to produce valid signatures. Such signatures can be used, among other applications, to secure crypto-currency wallets. Significant efficiency gains, namely in terms of bandwidth, result from the instantiation of these constructions from class groups. This work is at the forefront of the revival these mathematical objects have seen in cryptography over the last few years
APA, Harvard, Vancouver, ISO, and other styles
26

Merrad, Walid. "Interfaces tangibles et réalité duale pour la résolution collaborative de problèmes autour de tables interactives distribuées." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0010.

Full text
Abstract:
De nouvelles modalités d’interactions reposant sur les postures et les gestes complètentprogressivement les modalités couramment employées par les ordinateurs de bureau, lestablettes et les surfaces interactives. Ces modalités peuvent être enrichies par l’adjonctiond’objets tangibles, directement tirés de la vie quotidienne ou représentant de manièresymbolique des concepts abstraits de l’interface. Les tables interactives, de par leurhorizontalité et leurs cadres d’utilisation, souvent collaboratifs voire conviviaux, sont unterritoire privilégié d’exploration des usages des objets tangibles et de la manière dont ilssont capables d’enrichir les modalités classiques d’interaction avec ces tables que sont lepointage et le toucher.Le sujet de cette thèse porte sur l’étude des interactions utilisateur avec des tablesinteractives tangibles, dans un contexte d’utilisation en environnement de réalité dualeconstitué de deux mondes symétriques, interconnectés et d’influence mutuellement. Lesinterfaces utilisateur tangibles offrent aux utilisateurs la possibilité d’appréhender et desaisir la signification des informations numériques en manipulant des représentations tangiblesjudicieuses de notre monde physique. Ces métaphores d’interaction établissent unpont entre les deux environnements qui constituent la réalité duale : le monde physiqueet le monde virtuel.Dans cette perspective, ce travail présente une contribution théorique, ainsi que sesapplications. Nous proposons de combiner l’interaction tangible sur table interactiveavec la réalité duale dans un cadre conceptuel, essentiellement destiné aux concepteursd’applications, qui modélise et explique les interactions et les représentations, quifonctionnent dans des configurations de réalité duale. Nous exposons tout d’aborddifférents travaux réalisés dans le domaine de l’interaction tangible en général, puis nousnous concentrons sur des travaux menés sur les tables interactives. Nous proposonségalement de recenser et répertorier 112 tables interactives, classées et caractérisées selonplusieurs critères. Ensuite, nous présentons le concept de la réalité duale et ses domainesd’application possibles. Ensuite, nous proposons un framework de conception, illustronset expliquons ses éléments constitutifs, et comment il peut s’adapter à diverses situationsde réalité duale, notamment avec des tables interactives équipées de la technologie RFID.Enfin, quant à nos contributions applicatives, nous montrons des études de cas que nousavons conçues sur la base de notre proposition, qui illustrent les mises en oeuvre deséléments de notre framework proposé. Les perspectives de recherche sont enfin mises enévidence à la fin du manuscrit
In everyday life, new interactions are gradually replacing the standard computer keyboardand mouse, by using the human body gestures (hands, fingers, head, etc.) as alternativesof interactions on surfaces and in-air. Another type of interaction resides within the manipulationof everyday objects to interact with digital systems. Interactive tabletops haveemerged as new platforms in several domains, offering better usability and facilitatingmulti-user collaboration, thanks to their large display surface and different interactiontechniques on their surfaces, such as multi-touch and tangible. Therefore, improving interaction(s) on these devices and combining it (respectively them) with other conceptscan prove more useful and helpful in the everyday life of users and designers.The topic of this thesis focuses on studying user interactions on tangible interactivetabletops, in a context of use set in a dual reality environment. Tangible User Interfacesoffer users the possibility to apprehend and grasp the meaning of digital information bymanipulating insightful tangible representations in our physical world. These interactionmetaphors are bridging both environments that constitute the dual reality: the physicalworld and the virtual world.In this perspective, this work presents a theoretical contribution along with itsapplications. We propose to combine tangible interaction on tabletops and dual realityin a conceptual framework, basically intended for application designers, that models andexplains interactions and representations, which operate in dual reality setups. First ofall, we expose various works carried out in the field of tangible interaction in general,then we focus on existing work conducted on tabletops. We also propose to list 112interactive tabletops, classified and characterized by several criteria. Next, we presentthe dual reality concept and its possible application domains. Second, we design ourproposal of the framework, illustrate and explain its composing elements, and how itcan adapt to various situations of dual reality, particularly with interactive tabletopsequipped with RFID technology. Finally, and as application contributions, we show casestudies that we designed based on our proposal, which illustrate implementations ofelements from our proposed framework. Research perspectives are finally highlighted atthe end of the manuscript
APA, Harvard, Vancouver, ISO, and other styles
27

Bennour, Sahli Fethi. "Un gestionnaire de structures de données distribuées et scalables pour les multi-ordinateurs Windows : application à la fragmentation par hachage." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090043.

Full text
Abstract:
Les PCs et stations de travail interconnectés par un réseau haut débit, appelés multi-ordinateurs, sont devenus une configuration de base dans les entreprises. Grâce à leur potentiel de stockage et de calcul parallèle et au rapport qualité/prix imbattable, les multi-ordinateurs deviennent de plus en plus importants. Un fichier traditionnel, résidant entièrement sur un site, engendre des limitations bien connues concernant la taille, la scalabilité de performances d'accès et la vulnérabilité aux pannes. Pour dépasser ces limitations, des schémas distribuant les données sur plusieurs sites serveurs ont été conçus. Au début le partitionnement était statique, puis des solutions dynamiques et scalables surmontant cette limitation sont apparues. Nous y trouvons tout particulièrement les structures de données distribuées et scalables (SDDS) proposées pour des fichiers distribués sur des multi-ordinateurs. Les données d'une SDDS résident en RAM distribuée du multi-ordinateur, ce qui permet un temps d'accès aux données très courts par rapport à celui aux données sur disque. Nous présentons, d'abord, la conception d'un gestionnaire de SDDS pour les multi-ordinateurs Wintel que nous avons appelé SDDS-2000. Ensuite, nous discutons l'implémentation d'une variante de LH* basée sur le hachage distribué, dite LH* LH. Enfin, en vue de confirmer l'efficacité de SDDS-2000, notamment au niveau de la scalabilité et de performances d'accès impossibles aux fichiers traditionnels, nous validons notre système par des mesures expérimentales de performances. Ces mesures ont montré que SDDS-2000 assure des temps d'accès de l'ordre de 0,3 ms pour une insertion ou une recherche. Ces performances diminuent le temps de réponse au moins 30 fois par rapport au celui typique de 10 ms, de fichiers disque traditionnels. De tels temps de réponse resteront probablement à jamais inatteignables aux fichiers sur les supports mécaniques.
APA, Harvard, Vancouver, ISO, and other styles
28

Daouda, Ahmat mahamat. "Définition d'une infrastructure de sécurité et de mobilité pour les réseaux pair-à-pair recouvrants." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0186/document.

Full text
Abstract:
La sécurisation inhérente aux échanges dans les environnements dynamiques et distribués, dépourvus d’une coordination centrale et dont la topologie change perpétuellement, est un défi majeur. Dans le cadre de cette thèse, on se propose en effet de définir une infrastructure de sécurité adaptée aux contraintes des systèmes P2P actuels. Le premier volet de nos travaux consiste à proposer un intergiciel, appelé SEMOS, qui gère des sessions sécurisées et mobiles. SEMOS permet en effet de maintenir les sessions sécurisées actives et ce, même lorsque la configuration réseau change ou un dysfonctionnement se produit. Cette faculté d’itinérance est rendue possible par la définition d’un nouveau mécanisme de découplage afin de cloisonner l’espace d’adressage de l’espace de nommage ; le nouvel espace de nommage repose alors sur les tables de hachage distribuées (DHT). Le deuxième volet définit un mécanisme distribué et générique d’échange de clés adapté à l’architecture P2P. Basé sur les chemins disjoints et l’échange de bout en bout, le procédé de gestion des clés proposé est constitué d’une combinaison du protocole Diffie-Hellman et du schéma à seuil(k, n) de Shamir. D’une part, l’utilisation des chemins disjoints dans le routage des sous-clés compense l’absence de l’authentification certifiée, par une tierce partie, consubstantielle au protocole Diffie-Hellman et réduit, dans la foulée, sa vulnérabilité aux attaques par interception. D’autre part, l’extension de l’algorithme Diffie-Hellman par ajout du schéma à seuil (k, n) renforce substantiellement sa robustesse notamment dans la segmentation des clés et/ou en cas de défaillances accidentelles ou délibérées dans le routage des sous-clés. Enfin, les sessions sécurisées mobiles sont évaluées dans un réseau virtuel et mobile et la gestion des clés est simulée dans un environnement générant des topologies P2P aléatoires
Securing communications in distributed dynamic environments, that lack a central coordination point and whose topology changes constantly, is a major challenge.We tackle this challenge of today’s P2P systems. In this thesis, we propose to define a security infrastructure that is suitable to the constraints and issues of P2P systems. The first part of this document presents the design of SEMOS, our middleware solution for managing and securing mobile sessions. SEMOS ensures that communication sessions are secure and remain active despite the possible disconnections that can occur when network configurations change or a malfunction arises. This roaming capability is implemented via the definition of a new addressing space in order to split up addresses for network entities with their names ; the new naming space is then based on distributed hash tables(DHT). The second part of the document presents a generic and distributed mechanism for a key exchange method befitting to P2P architectures. Building on disjoint paths andend-to-end exchange, the proposed key management protocol consists of a combination of the Diffie-Hellman algorithm and the Shamir’s (k, n) threshold scheme. On the onehand, the use of disjoint paths to route subkeys offsets the absence of the third party’s certified consubstantial to Diffie-Hellman and reduces, at the same time, its vulnerability to interception attacks. On the other hand, the extension of the Diffie-Hellman algorithm by adding the threshold (k, n) scheme substantially increases its robustness, in particular in key splitting and / or in the case of accidental or intentional subkeys routing failures. Finally, we rely on a virtual mobile network to assess the setup of secure mobile sessions.The key management mechanism is then evaluated in an environment with randomly generated P2P topologies
APA, Harvard, Vancouver, ISO, and other styles
29

Leconte, Mathieu. "Équilibrage de charge et répartition de ressources dans les grands systèmes distribués." Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-00933645.

Full text
Abstract:
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
APA, Harvard, Vancouver, ISO, and other styles
30

Gai, Anh-Tuan. "Structuration en graphe de de Bruijin ou par incitation dans les réseaux de pair à pair." Paris 6, 2006. http://www.theses.fr/2006PA066528.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Truong, Hien Thi Thu. "Un modèle de collaboration basé sur les contrats et la confiance." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00769076.

Full text
Abstract:
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC.
APA, Harvard, Vancouver, ISO, and other styles
32

Migault, Daniel. "Naming and security in a mobile, multihomed and multiple interfaces environement." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-01016686.

Full text
Abstract:
ISPs are concerned about providing and maintaining the level of security of its End User's communications. A communication is initiated by the End User with a name, and goes on by exchanging packets between two IP addresses. In this thesis, we focused our attention on two main points: (1) providing a secure Naming service, and (2) making IPsec communication resilient to IP address modification, addition or lost of an interface. We designed MOBIKE-X for that purpose and propose it as a standard at the IETF
APA, Harvard, Vancouver, ISO, and other styles
33

Cortés, Rudyar. "Scalable location-temporal range query processing for structured peer-to-peer networks." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066106/document.

Full text
Abstract:
La recherche et l'indexation de données en fonction d'une date ou d'une zone géographique permettent le partage et la découverte d'informations géolocalisées telles que l'on en trouve sur les réseaux sociaux comme Facebook, Flickr, ou Twitter. Cette réseau social connue sous le nom de Location Based Social Network (LBSN) s'applique à des millions d'utilisateurs qui partagent et envoient des requêtes ciblant des zones spatio-temporelles, permettant d'accéder à des données géolocalisées générées dans une zone géographique et dans un intervalle de temps donné. Un des principaux défis pour de telles applications est de fournir une architecture capable de traiter la multitude d'insertions et de requêtes spatio-temporelles générées par une grande quantité d'utilisateurs. A ces fins, les Tables de Hachage Distribué (DHT) et le paradigme Pair-à-Pair (P2P) sont autant de primitives qui forment la base pour les applications de grande envergure. Cependant, les DHTs sont mal adaptées aux requêtes ciblant des intervalles donnés; en effet, l'utilisation de fonctions de hachage sacrifie la localité des données au profit d'un meilleur équilibrage de la charge. Plusieurs solutions ajoutent le support de requêtes ciblant des ensembles aux DHTs. En revanche ces solutions ont tendance à générer un nombre de messages et une latence élevée pour des requêtes qui ciblent des intervalles. Cette thèse propose deux solutions à large échelle pour l'indexation des données géolocalisées
Indexing and retrieving data by location and time allows people to share and explore massive geotagged datasets observed on social networks such as Facebook, Flickr, and Twitter. This scenario known as a Location Based Social Network (LBSN) is composed of millions of users, sharing and performing location-temporal range queries in order to retrieve geotagged data generated inside a given geographic area and time interval. A key challenge is to provide a scalable architecture that allow to perform insertions and location-temporal range queries from a high number of users. In order to achieve this, Distributed Hash Tables (DHTs) and the Peer-to-Peer (P2P) computing paradigms provide a powerful building block for implementing large scale applications. However, DHTs are ill-suited for supporting range queries because the use of hash functions destroy data locality for the sake of load balance. Existing solutions that use a DHT as a building block allow to perform range queries. Nonetheless, they do not target location-temporal range queries and they exhibit poor performance in terms of query response time and message traffic. This thesis proposes two scalable solutions for indexing and retrieving geotagged data based on location and time
APA, Harvard, Vancouver, ISO, and other styles
34

Cholez, Thibault. "Supervision des réseaux pair à pair structurés appliquée à la sécurité des contenus." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00608907.

Full text
Abstract:
L'objectif de cette thèse est de concevoir et d'appliquer de nouvelles méthodes de supervision capables d'appréhender les problèmes de sécurité affectant les données au sein des réseaux P2P structurés (DHT). Ceux-ci sont de deux types. D'une part les réseaux P2P sont utilisés pour diffuser des contenus illégaux dont l'activité est difficile à superviser. D'autre part, l'indexation des contenus légitimes peut être corrompue (attaque Sybil). Nous proposons tout d'abord une méthode de supervision des contenus basée sur l'insertion de sondes et le contrôle du mécanisme d'indexation du réseau. Celle-ci permet d'attirer l'ensemble des requêtes des pairs pour un contenu donné, puis de vérifier leur intention en générant des appâts très attractifs. Nous décrivons ainsi les faiblesses du réseau permettant la mise en œuvre de notre méthode en dépit des protections existantes. Nous présentons les fonctionnalités de notre architecture et en évaluons l'efficacité sur le réseau P2P KAD avant de présenter un déploiement réel ayant pour but l'étude des contenus pédophiles. Nous considérons ensuite la sécurité des données indexées dans une DHT. Nous supervisons le réseau KAD et montrons que celui-ci est victime d'une pollution particulièrement néfaste affectant 2/3 des fichiers mais aussi de nombreuses attaques ciblées affectant la sécurité des contenus stockés. Nous proposons un moyen de détecter efficacement cette dernière attaque en analysant la distribution des identifiants des pairs autour d'une référence ainsi qu'une contre-mesure permettant de protéger les pairs à un coût négligeable. Nous terminons par l'évaluation de la protection au sein de réseaux P2P réels.
APA, Harvard, Vancouver, ISO, and other styles
35

Jawad, Mohamed. "Data privacy in P2P Systems." Nantes, 2011. http://www.theses.fr/2011NANT2020.

Full text
Abstract:
Les communautés en ligne pair-a-pair (P2P), comme les communautés professionnelles (p. Ex. , médicales ou de recherche) deviennent de plus en plus populaires a cause de l’augmentation des besoins du partage de données. Alors que les environnements P2P offrent des caractéristiques intéressantes (p. Ex. , passage a l’échelle, disponibilité, dynamicité), leurs garanties en termes de protection des données sensibles sont limitées. Ils peuvent être considérés comme hostiles car les données publiées peuvent être consultées par tous les pairs (potentiellement malicieux) et utilisées pour tout (p. Ex. , pour le commerce illicite ou tout simplement pour des activités contre les préférences personnelles ou éthiques du propriétaire des données). Cette thèse propose un service qui permet le partage de données sensibles dans les systèmes P2P, tout en assurant leur confidentialité. La première contribution est l’analyse des techniques existant pour la confidentialité de données dans les architectures P2P. La deuxième contribution est un modèle de confidentialité, nomme PriMod, qui permet aux propriétaires de données de spécifier leurs préférences de confidentialité dans de politiques de confidentialité et d’attacher ces politiques a leurs données sensibles. La troisième contribution est le développement de PriServ, un service de confidentialité, base sur une DHT qui met en oeuvre PriMod afin de prévenir la violation de la confidentialité de données. Entre autres, PriServ utilise de techniques de confiance pour prédire le comportement des pairs
Online peer-to-peer (P2P) communities such as professional ones (e. G. , medical or research communities) are becoming popular due to increasing needs on data sharing. P2P environments offer valuable characteristics but limited guarantees when sharing sensitive data. They can be considered as hostile because data can be accessed by everyone (by potentially malicious peers) and used for everything (e. G. , for marketing or for activities against the owner’s preferences or ethics). This thesis proposes a privacy service that allows sharing sensitive data in P2P systems while protecting their privacy. The first contribution consists on analyzing existing techniques for data privacy in P2P architectures. The second contribution is a privacy model for P2P systems named PriMod which allows data owners to specify their privacy preferences in privacy policies and to associate them with their data. The third contribution is the development of PriServ, a privacy service located on top of DHT-based P2P systems which implements PriMod to prevent data privacy violations. Among others, PriServ uses trust techniques to predict peers behavior
APA, Harvard, Vancouver, ISO, and other styles
36

Cholez, Thibault. "Supervision des réseaux pair à pair structurés appliquée à la sécurité des contenus." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10036.

Full text
Abstract:
L'objectif de cette thèse est de concevoir et d'appliquer de nouvelles méthodes de supervision capables d'appréhender les problèmes de sécurité affectant les données au sein des réseaux P2P structurés (DHT). Ceux-ci sont de deux types. D'une part les réseaux P2P sont utilisés pour diffuser des contenus illégaux dont l'activité est difficile à superviser. D'autre part, l'indexation des contenus légitimes peut être corrompue (attaque Sybil).Nous proposons tout d'abord une méthode de supervision des contenus basée sur l'insertion de sondes et le contrôle du mécanisme d'indexation du réseau. Celle-ci permet d'attirer l'ensemble des requêtes des pairs pour un contenu donné, puis de vérifier leur intention en générant des appâts très attractifs. Nous décrivons ainsi les faiblesses du réseau permettant la mise en oeuvre de notre méthode en dépit des protections existantes. Nous présentons les fonctionnalités de notre architecture et en évaluons l'efficacité sur le réseau P2P KAD avant de présenter un déploiement réel ayant pour but l'étude des contenus pédophiles.Nous considérons ensuite la sécurité des données indexées dans une DHT. Nous supervisons le réseau KAD et montrons que celui-ci est victime d'une pollution particulièrement néfaste affectant 2/3 des fichiers mais aussi de nombreuses attaques ciblées affectant la sécurité des contenus stockés. Nous proposons un moyen de détecter efficacement cette dernière attaque en analysant la distribution des identifiants des pairs autour d'une référence ainsi qu'une contre-mesure permettant de protéger les pairs à un coût négligeable. Nous terminons par l'évaluation de la protection au sein de réseaux P2P réels
The purpose of this thesis is to design and implement new monitoring solutions which are able to deal with the security issues affecting data stored in large structured P2P networks (DHT). There are two major types of issues. First, P2P networks are used to spread illegal contents whose activity is difficult to monitor accurately. Second, the indexation of regular contents can be corrupted (Sybil attack).We first designed a new approach to monitor contents based on the insertion of distributed probes in the network to take control of the indexation mechanism. The probes can attract all the related requests for a given content and assess the peers intent to access it by generating very attractive honeypots. We describe the weaknesses of the network allowing our solution to be effective despite recent protection mechanisms. We then present the services offered by our monitoring architecture and we evaluate its efficiency on KAD. We also present a real deployment whose purpose is to study pedophile contents on this network.Then, we focus on data integrity in distributed hash tables. We performed large scale monitoring campaigns on the KAD network. Our observations show that it suffers from a very harmful pollution of its indexation mechanism affecting 2/3 of the shared files and from a large number of localized attacks targeting contents. To mitigate these threats, we propose a new efficient way to detect attacks by analysing the distribution of the peers' ID found around an entry after a DHT lookup and a counter-measure which can protect the peers at a negligible cost. Finally, we evaluate our solution in real P2P networks
APA, Harvard, Vancouver, ISO, and other styles
37

Cortés, Rudyar. "Scalable location-temporal range query processing for structured peer-to-peer networks." Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066106.pdf.

Full text
Abstract:
La recherche et l'indexation de données en fonction d'une date ou d'une zone géographique permettent le partage et la découverte d'informations géolocalisées telles que l'on en trouve sur les réseaux sociaux comme Facebook, Flickr, ou Twitter. Cette réseau social connue sous le nom de Location Based Social Network (LBSN) s'applique à des millions d'utilisateurs qui partagent et envoient des requêtes ciblant des zones spatio-temporelles, permettant d'accéder à des données géolocalisées générées dans une zone géographique et dans un intervalle de temps donné. Un des principaux défis pour de telles applications est de fournir une architecture capable de traiter la multitude d'insertions et de requêtes spatio-temporelles générées par une grande quantité d'utilisateurs. A ces fins, les Tables de Hachage Distribué (DHT) et le paradigme Pair-à-Pair (P2P) sont autant de primitives qui forment la base pour les applications de grande envergure. Cependant, les DHTs sont mal adaptées aux requêtes ciblant des intervalles donnés; en effet, l'utilisation de fonctions de hachage sacrifie la localité des données au profit d'un meilleur équilibrage de la charge. Plusieurs solutions ajoutent le support de requêtes ciblant des ensembles aux DHTs. En revanche ces solutions ont tendance à générer un nombre de messages et une latence élevée pour des requêtes qui ciblent des intervalles. Cette thèse propose deux solutions à large échelle pour l'indexation des données géolocalisées
Indexing and retrieving data by location and time allows people to share and explore massive geotagged datasets observed on social networks such as Facebook, Flickr, and Twitter. This scenario known as a Location Based Social Network (LBSN) is composed of millions of users, sharing and performing location-temporal range queries in order to retrieve geotagged data generated inside a given geographic area and time interval. A key challenge is to provide a scalable architecture that allow to perform insertions and location-temporal range queries from a high number of users. In order to achieve this, Distributed Hash Tables (DHTs) and the Peer-to-Peer (P2P) computing paradigms provide a powerful building block for implementing large scale applications. However, DHTs are ill-suited for supporting range queries because the use of hash functions destroy data locality for the sake of load balance. Existing solutions that use a DHT as a building block allow to perform range queries. Nonetheless, they do not target location-temporal range queries and they exhibit poor performance in terms of query response time and message traffic. This thesis proposes two scalable solutions for indexing and retrieving geotagged data based on location and time
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography