Дисертації з теми "Protocle de mesure"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Protocle de mesure.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Protocle de mesure".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Claverie, Léa. "Dynamique d'échange de la dynamine mesurée dans les cellules vivantes pendant la formation de vésicules d'endocytose." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'endocytose dépendante de la clathrine (EDC), c’est-à-dire la formation de vésicules recouvertes de clathrine (VRC) à partir de la membrane plasmique, est un processus essentiel dans les cellules eucaryotes. Au cours de l’EDC, la GTPase dynamine est recrutée au cou de la VRC naissante où elle s'oligomérise en hélice. Les changements de conformation induits par l'hydrolyse du GTP catalysent la scission du cou vésiculaire. Ce processus a été étudié en détail par reconstitution in vitro sur des tubules membranaires, mais il doit être établi dans des cellules vivantes, où les interactions de la dynamine avec d'autres protéines comme l'amphiphysine sont critiques. L'imagerie TIRF (Total Internal Reflection Fluorescence) avec le protocole pH pulsé (ppH) sur cellules vivantes permet la détection de la formation de VRC avec une résolution spatiale (~100 nm) et temporelle (2 s) élevée. Ce protocole a révélé que la dynamine présente un recrutement biphasique aux puits recouverts de clathrine (PRC) en maturation avec un pic au moment de la scission mais les paramètres de son recrutement dans les cellules vivantes restent peu clairs. Pour déterminer ces paramètres, j’ai utilisé des techniques d’imagerie sur cellules vivantes pour étudier le recrutement de la dynamine à l’échelle globale et à l’échelle de la molécule unique lors de perturbations aiguës de sa fonction. Mes résultats de thèse ont montré que la dynamine est recrutée à la membrane plasmique, diffuse à l'extérieur des PRC et y est transitoirement piégée. De plus, j’ai déterminé avec des dynamines mutées (1) que le domaine PRD de la dynamine est crucial pour son recrutement aux PRC ; (2) que le domaine PH est important pour la scission vésiculaire mais par pour son recrutement aux PRC ou à la membrane plasmique. Enfin, j’ai observé que la dynamine s'échange en permanence avec un pool extra-PRC, ce qui permettrait son recrutement ultérieur par l'ajout de nouveaux sites de liaison et sa capacité à rétrécir le cou des vésicules suite à l’hydrolyse du GTP. En conclusion, ces données suggèrent qu’aux PRC, les molécules de dynamine (1) sont constamment échangées ; (2) diffusent à des taux similaires tout au long du processus de formation, maturation et scission des vésicules; et (3) l'activité GTPase de la dynamine contribue à la maturation et à la scission des VRC
Clathrin-mediated endocytosis (CME), the formation of clathrin-coated vesicles (CCV) from the plasma membrane, is an essential process in eukaryotic cells. During CME, the GTPase dynamin is recruited to the neck of nascent CCV where it oligomerizes into helical filaments. Conformational changes induced by the hydrolysis of GTP catalyze the scission of the vesicle neck. This process has been studied in detail with in vitro reconstitution on membrane tubules but it needs to be established in living cells, where interactions between dynamin and other proteins such as amphiphysin are critical. Live cell total internal reflection fluorescence (TIRF) imaging with the pulsed pH (ppH) assay allows the detection of CCV formation with high spatial (~100 nm) and temporal (2 s) resolutions. It has revealed that dynamin is recruited to maturing clathrin-coated pits (CCP) in two phases with a peak at the time of scission but the parameters of its recruitment in living cells remain unclear. To determine these parameters, we have performed live cell imaging of dynamin recruitment at collective and single molecule levels during acute perturbations of its function. My PhD results showed that dynamin is recruited to the plasma membrane, diffuses outside of CCP and is trapped at CCP. Furthermore, we determined with mutated dynamins that (1) the PRD domain of dynamin is crucial for its recruitment at CCP; (2) the PH domain is important for vesicular scission but not for recruitment to CCP or to the plasma membrane. Finally, I observed that dynamin exchanges with an extra-CCP pool at all times: this would allow for its further recruitment by addition of new binding sites and its ability to narrow the vesicle neck after GTP hydrolysis. Altogether, these data suggest that in CCP dynamin molecules (1) are constantly exchanged; (2) diffuse at similar rates throughout the entire process of vesicle formation, from maturation until scission; and (3) that dynamin’s GTPase activity contributes to CCP maturation and scission
2

Cavalcante, Fraga Luis Henrique. "Caractérisation des sols pollués via des méthodes géophysiques : couplage entre le diagnostic conventionnel et les méthodes géophysiques pour estimer la distribution spatiale des polluants à l’aide du formalisme géostatistique." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS645.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La caractérisation spatiale de sources de pollution est un enjeu majeur pour la réhabilitation de sites pollués. Les analyses géochimiques d’échantillons sont coûteuses et onéreuses en temps et ne permet qu’une vision ponctuelle des sites. Ces travaux ont évalué la méthode de cartographie électromagnétique (EMI) pour imager les propriétés physiques indirectes du sous-sol afin de (1) définir des protocoles de mesures géophysiques adaptés (2) d’exploiter les mesures spatialisées (géophysiques et géochimiques) pour l'estimation des volumes de sols pollués aux hydrocarbures grâce au formalisme géostatistique. Les résultats sur le site de Poitiers, localisé en contexte péri-urbain, ont mis en évidence la sensibilité de la méthode EMI pour déterminer la géométrie d'une couche de remblais. La stratégie finale appliquée sur le site de Rouen, fortement pollué aux hydrocarbures et situé en milieu urbain, a été modifiée avec une cartographie EMI exhaustive, des panneaux électriques, une prospection au géoradar et des mesures sur échantillons. L’analyse statistique multivariable a indiqué une corrélation globale entre les teneurs en hydrocarbures et les conductivités électriques apparentes mesurées par la méthode EMI. L’hétérogénéité des remblais, les aménagements et un aquifère discontinu ont fortement perturbé les mesures EMI. Malgré la diminution de la variance de l’erreur d’estimation lorsque les données géophysiques ont été intégrées dans les modèles géostatistiques, les corrélations linéaires restent encore faibles et limitées par la représentativité des sites. Un protocole de mesures géophysiques a été conçu et a montré son potentiel pour la caractérisation de sites pollués
The spatial characterization of pollution sources is a key step for estimating the costs of the rehabilitation of contaminated sites. Geochemical sampling is costly and time-consuming and only allows punctual information about contamination levels. This PhD work evaluated the electromagnetic mapping method (EMI) for imaging the physical properties of the subsoil to (1) define geophysical measurement protocols and (2) exploit spatialized geophysical and geochemical data for a better estimation of hydrocarbon-polluted soil volumes through geostatistical formalism. The results at the Poitiers’ site, located in a peri-urban context with an unknown backfill coverage, highlighted the sensitivity of the EMI method for determining the geometry of the backfill layer. The new geophysical measurement strategy applied at the Rouen’s site, which is heavily polluted with hydrocarbons and located in an urban environment, has been modified with exhaustive EMI mapping, electrical resistivity and polarization tomography, ground penetrating radar and physical measurements at sample scale. The multivariate statistical analysis indicated an overall correlation between the hydrocarbon levels and the apparent electrical conductivities measured by the EMI method. Nevertheless, the heterogeneity of the urban fill, surface facilities and a discontinuous aquifer have severely disrupted EMI measurements. Despite the decrease in the variance of estimation error when geophysical data have been integrated into geostatistical models, linear correlations are still weak. A novel geophysical measurement protocol has been designed and demonstrated its potential for assessing contaminated sites
3

Debant, Alexandre. "Symbolic verification of distance-bounding protocols : application to payment protocols." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’essor des nouvelles technologies, et en particulier la Communication en Champ Proche (NFC), a permis l’apparition de nouvelles applications. Á ce titre, nous pouvons mentionner le paiement sans contact, les clefs mains libres ou encore les carte d’abonnement dans les transports en commun. Afin de sécuriser l’ensemble de ces applications, des protocoles de sécurité, appelés protocoles délimiteurs de distance on été développés. Ces protocoles ont pour objectif d’assurer la proximité physique des appareils mis en jeu afin protocole cryptographique, protocole de paiement de limiter le risque d’attaque. Dans ce manuscrit, nous présentons diverses approches permettant une analyse formelle de ces protocoles. Dans ce but, nous proposons un modèle symbolique permettant une modélisation précise du temps ainsi que des positions dans l’espace de chaque participant. Nous proposons ensuite deux approches : la première développant une nouvelle procédure de vérification, la seconde permettant la ré-utilisation d’outils existants tels que Proverif. Tout au long de ce manuscrit, nous porterons une attention parti- culières aux protocoles de paiement sans contact
The rise of new technologies, and in particular Near Field Communication (NFC) tags, offers new applications such as contactless payments, key-less entry systems, transport ticketing... Due to their security concerns, new security protocols, called distance-bounding protocols, have been developed to ensure the physical proximity of the de- vices during a session. In order to prevent flaws and attacks, these protocols require formal verification. In this manuscript, we present several techniques that allow for an automatic verification of such protocols. To this aim, we first present a symbolic model which faithfully models time and locations. Then we develop two approaches : either ba- sed on a new verification procedure, or leveraging existing tools like Proverif. Along this manuscript, we pay a particular attention to apply our results to contactless payment protocols
4

Levillain, Olivier. "Une étude de l’écosystème TLS." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0014/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
SSL/TLS, un protocole de sécurité datant de 1995, est devenu aujourd'hui une brique essentielle pour la sécurité des communications, depuis les sites de commerce en ligne ou les réseaux sociaux jusqu'aux réseaux privés virtuels (VPN), en passant par la protection des protocoles de messagerie électronique, et de nombreux autres protocoles. Ces dernières années, SSL/TLS a été l'objet de toutes les attentions, menant à la découverte de nombreuses failles de sécurité et à des améliorations du protocole. Dans cette thèse, nous commençons par explorer l'écosystème SSL/TLS sur Internet en énumérant les serveurs HTTPS sur l'espace IPv4; nous proposons pour cela des méthodologies de collecte et d'analyse permettant d'obtenir des résultats reproductibles et comparables entre différentes campagnes de mesure. Au-delà de ces observations, nous nous sommes intéressés en détail à deux aspects essentiels de la sécurité TLS: comment parer les attaques sur le Record Protocol, et comment implémenter des parsers sûrs et efficaces. Finalement, en se basant sur les nombreuses failles d'implémentation qui ont affecté presque toutes les piles TLS ces dernières années, nous tirons quelques enseignements concernant les difficultés liées à l'écriture d'une bibliothèque TLS de confiance
SSL/TLS, a 20-year old security protocol, has become a major component securing network communications, from HTTPS e-commerce and social network sites to Virtual Private Networks, from e-mail protocols to virtually every possible protocol. In the recent years, SSL/TLS has received a lot of attentions, leading to the discovery of many security vulnerabilities, and to protocol improvements. In this thesis, we first explore the SSL/TLS ecosystem at large using IPv4 HTTPS scans, while proposing collection and analysis methodologies to obtain reproducible and comparable results across different measurement campaigns. Beyond these observations, we focused on two key aspects of TLS security: how to mitigate Record Protocol attacks, and how to write safe and efficient parsers. Finally, building on the numerous implementation flaws in almost all TLS stacks in the last years, we propose some thoughts about the challenges in writing a secure TLS library
5

Mas, Denis. "Intérêt et reproductibilité d'un protocole standardisé dans la mesure de l'intervalle QKd." Bordeaux 2, 1997. http://www.theses.fr/1997BOR23069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Koutsos, Adrien. "Preuves symboliques de propriétés d’indistinguabilité calculatoire." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre société utilise de nombreux systèmes de communications. Parce que ces systèmes sont omniprésents et sont utilisés pour échanger des informations sensibles, ils doivent être protégés. Cela est fait à l'aide de protocoles cryptographiques. Il est crucial que ces protocoles assurent bien les propriétés de sécurité qu'ils affirment avoir, car les échecs peuvent avoir des conséquences importantes. Malheureusement, concevoir des protocoles cryptographiques est notoirement difficile, comme le montre la régularité avec laquelle de nouvelles attaques sont découvertes. Nous pensons que la vérification formelle est le meilleur moyen d'avoir de bonnes garanties dans la sécurité d'un protocole: il s'agit de prouver mathématiquement qu'un protocole satisfait une certaine propriété de sécurité.Notre objectif est de développer les techniques permettant de vérifier formellement des propriétés d'équivalence sur des protocoles cryptographiques, en utilisant une méthode qui fournit de fortes garanties de sécurités, tout en étant adaptée à des procédures de preuve automatique. Dans cette thèse, nous défendons l'idée que le modèle Bana-Comon pour les propriétés d'équivalences satisfait ces objectifs. Nous soutenons cette affirmation à l'aide de trois contributions.Tout d'abord, nous étayons le modèle Bana-Comon en concevant des axiomes pour les fonctions usuelles des protocoles de sécurités, et pour plusieurs hypothèses cryptographiques. Dans un second temps, nous illustrons l'utilité de ces axiomes et du modèle en réalisant des études de cas de protocoles concrets: nous étudions deux protocoles RFID, KCL et LAK, ainsi que le protocole d'authentification 5G-AKA, qui est utilisé dans les réseaux de téléphonie mobile. Pour chacun de ces protocoles, nous montrons des attaques existentes ou nouvelles, proposons des versions corrigées de ces protocoles, et prouvons que celles-ci sont sécurisées. Finalement, nous étudions le problème de l'automatisation de la recherche de preuves dans le modèle Bana-Comon. Pour cela, nous prouvons la décidabilité d'un ensemble de règles d'inférences qui est une axiomatisation correcte, bien que incomplète, de l'indistingabilité calculatoire, lorsque l'on utilise un schéma de chiffrement IND-CCA2. Du point de vue d'un cryptographe, cela peut être interprété comme la décidabilité d'un ensemble de transformations de jeux
Our society extensively relies on communications systems. Because such systems are used to exchange sensitive information and are pervasive, they need to be secured. Cryptographic protocols are what allow us to have secure communications. It is crucial that such protocols do not fail in providing the security properties they claim, as failures have dire consequences. Unfortunately, designing cryptographic protocols is notoriously hard, and major protocols are regularly and successfully attacked. We argue that formal verification is the best way to get a strong confidence in a protocol security. Basically, the goal is to mathematically prove that a protocol satisfies some security property.Our objective is to develop techniques to formally verify equivalence properties of cryptographic protocols, using a method that provides strong security guarantees while being amenable to automated deduction techniques. In this thesis, we argue that the Bana-Comon model for equivalence properties meets these goals. We support our claim through three different contributions.First, we design axioms for the usual functions used in security protocols, and for several cryptographic hypothesis. Second, we illustrate the usefulness of these axioms and of the model by completing case studies of concrete protocols: we study two RFID protocols, KCL et LAK, as well as the 5G-AKA authentication protocol used in mobile communication systems. For each of these protocols, we show existing or new attacks against current versions, propose fixes, and prove that the fixed versions are secure. Finally, we study the problem of proof automation in the Bana-Comon model, by showing the decidability of a set of inference rules which is a sound, though incomplete, axiomatization of computational indistinguishability when using an IND-CCA2 encryption scheme. From a cryptographer's point of view, this can be seen as the decidability of a fixed set of cryptographic game transformations
7

Borelly, Audrey. "Comment mesurer l'influence de l'information préventive sur les risques majeurs ? : L'intérêt de la mise en situation sur maquette." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAU011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis 1987, l’information préventive sur les risques majeurs est un droit accordé aux populations. Elle est transmise sous diverses modalités : des documents règlementaires (DICRIM, brochure PPI etc.) et une variété de supports et formes d’expressions alternatives (pièces de théâtre, clips, expositions etc.). L’efficacité et l’impact de la première catégorie d’information préventive est déjà évaluée par des questionnaires réalisés auprès des populations. Cependant, ces évaluations ne permettent pas de vérifier si ces informations induisent effectivement des comportements adaptés en condition de stress que procure un évènement extrême. L’impact de la seconde catégorie d’information apparait comme très peu étudiée, alors qu’elle se caractérise par des méthodes et outils originaux, empruntés aux arts et à la pédagogie, et produisant une certaine participation des populations et l’activation du corps, des sens et des émotions. Or les sciences de la communication ont montré que la mobilisation des sens et des émotions favorise la mémorisation des messages.Devant ce constat, cette thèse propose d’évaluer l’influence des différentes formes d’information préventive sur les comportements en situation de crise fictive, par la création et l’expérimentation d’une nouvelle méthode inspirée des arts et des jeux de rôle. Ce faisant, l’étude compare d’une part cette nouvelle méthode à celle par questionnaire, et d’autre part les modalités d’informations réglementaires aux informations alternatives. En se focalisant sur les risques d’inondation, de séisme et d’émanation de gaz toxique, cette comparaison est mise en place sur trois terrains d’étude en Isère : Grenoble, Jarrie et Saint-Egrève. En mettant les enquêtés en situation sur une maquette, en les confrontant à des dilemmes que peut faire émerger l’urgence de la crise, la thèse met en exergue des réactions qui n’apparaissent pas dans les questionnaires : des réactions réflexes, contraires aux connaissances des enquêtés, des hésitations, etc. Les apports et limites des informations préventives sont alors précisées, selon les contextes et profils sociogéographiques des enquêtés. Les résultats montrent l’intérêt de multiplier les modalités d’informations et de les adapter sur des publics particuliers en favorisant l’échange et la contextualisation de la crise
Since 1987, populations have been granted access to preventive information about major risks. It is passed down through a variety of methods, from regulatory documents (DICRIM, PPI brochure etc.) to original supports and alternative expression forms (plays, video clips, exhibitions etc.). Direct questionnaires to populations already assess the efficiency and impact of first category preventive information. However, these assessments do not check whether the information has actually induced adapted behaviors when confronted to stressful conditions, as is the case with extreme events. On the other hand, the impact of second category information appears under-studied, while it is characterized by original methods and tools. These methods, borrowed from arts and pedagogy, generate an interesting popular response, by activating emotions and resorting to sensory stimulation. As a matter of fact, communication science has shown that mobilizing sense and emotions helps with message memorization.In the face of these observations, this thesis proposes to assess how different ways to pass down preventive information influence behavior in a fictional crisis situation. To that end, a new method inspired from arts and role play has been created and experimented upon.Therefore, the study first compares this new method to the classic questionnaire method, and secondly, it opposes regulatory documents to alternative information. By focusing on floods, earthquakes and gas emanation risks, the comparison has been set up and studied on three different sites in Isère in France: Grenoble, Jarrie et Saint-Egrève. The respondents were presented a 3D model as the operating stage, and then confronted to typical dilemmas that can stem from emergency situations. Here, this thesis has highlighted reactions that surveys cannot reveal: reflex actions sometimes contradicting the respondents’ knowledge, hesitations, etc. Benefits and limits of preventive information are thereby more accurate, and depend on circumstances as well as on the respondents’ sociogeographic profiles. The results demonstrate how necessary it is to multiply and diversify the modes of information transmission, and to adapt them to specific audiences, through experience sharing and crisis contextualization
8

Corral, Gonzalez Joël Eduardo. "Mesure de paramètres de qualité de service dans les réseaux IP." Rennes 1, 2004. http://www.theses.fr/2004REN10121.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des techniques d'évaluation de performances des réseaux IP sont nécessaires pour les administrateurs, pour ce qui concerne la planification et le dimensionnement, la sécurité et l'évaluation des performances des équipements de communication. La vérification de la QoS offerte par des implémentations DiffServ, ou la caractérisation de la performance de nouveaux médias de transmission comptent parmi les principales motivations pour effectuer des mesures dans les réseaux IP. On distingue deux grandes classes de techniques pour mesurer les performances : les mesures passives et les mesures actives. Pour les premières, il s'agit d'utiliser le trafic réel traversant certains points du réseau, en écoutant des paquets émis par des sources extérieures au processus de mesure. Cette approche est considérée non-intrusive. Les secondes consistent à mesurer, à partir de la génération d'un trafic de test, le temps de traversée du réseau en suivant le même chemin que les flux applicatifs. La QoS observée par ce trafic de test donne une bonne approximation de la QoS obtenue par les applications. Alors que la mesure passive exige des capacités de traitement considérables, la mesure active peut être facilement mise en œuvre dans presque n'importe quel nœud IP. Ce document présente la définition, la mise en œuvre et l'expérimentation de la plateforme de mesure active de bout en bout Saturne. Cette plateforme mesure de manière fine les temps de trajet unidirectionnel des paquets (OWD) et le taux de perte entre deux points du réseau IPv4/IPv6. Les mesures sont faites à partir d'un temps global obtenu grâce à des équipements GPS placés dans chacun des points de mesure. L'architecture est composée de modules fonctionnels indépendants (émission, capture et gestion des données) qui interagissent pour effectuer les mesures. L'architecture Saturne a été employée dans plusieurs scénarios comprenant, mais pas limités à, l'évaluation des fonctionnalités de filtrage IP dans un routeur et la validation des politiques de DiffServ dans un réseau à haut débit. Dans ce dernier cas, on a constaté que les résultats calculés par Saturne sont équivalents à ceux obtenus avec des outils passifs plus complexes. Finalement, nous proposons d'exploiter les capacités d'IPv6 en définissant une extension d'en-tête pour la métrologie. La méthode proposée permet d'inclure l'information de métrologie dans les paquets des flux applicatifs IPv6. Les avantages de cette proposition ont été vérifiés par une série d'expérimentations. GPRS et Bluetooth ont été choisis pour ces tests, en tant que deux médias où IPv6 et la métrologie seront certainement exigés dans un avenir proche. Cette architecture, Saturne-v6, ouvre un nouveau champ de recherche placé au milieu des philosophies de mesure actives et passives.
9

Kiennert, Christophe. "Elaboration d'un modèle d'identité numérique adapté à la convergence." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-01002153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des réseaux informatiques, et notamment d'Internet, s'ancre dans l'émergence de paradigmes prépondérants tels que la mobilité et les réseaux sociaux. Cette évolution amène à considérer une réorganisation de la gestion des données circulant au cœur des réseaux. L'accès à des services offrant de la vidéo ou de la voix à la demande depuis des appareils aussi bien fixes que mobiles, tels que les Smartphones, ou encore la perméabilité des informations fournies à des réseaux sociaux conduisent à s'interroger sur la notion d'identité numérique et, de manière sous-jacente, à reconsidérer les concepts de sécurité et de confiance. La contribution réalisée dans ce travail de thèse consiste, dans une première partie, à analyser les différents modèles d'identité numérique existants ainsi que les architectures de fédération d'identité, mais également les protocoles déployés pour l'authentification et les problèmes de confiance engendrés par l'absence d'élément sécurisé tel qu'une carte à puce. Dans une deuxième partie, nous proposons, en réponse aux éléments dégagés dans la partie précédente, un modèle d'identité fortement attaché au protocole d'authentification TLS embarqué dans un composant sécurisé, permettant ainsi de fournir les avantages sécuritaires exigibles au cœur des réseaux actuels tout en s'insérant naturellement dans les différents terminaux, qu'ils soient fixes ou mobiles. Enfin, dans une dernière partie, nous expliciterons plusieurs applications concrètes, testées et validées, de ce modèle d'identité, afin d'en souligner la pertinence dans des cadres d'utilisation pratique extrêmement variés.
10

Jaubert, Jean. "Etudes de quelques interactions entre espèces et facteurs de l'environnement (lumière, température et oxygène dissous) mesures in situ en milieu récifal : conception et réalisation d'instruments de mesure et protocoles expérimentaux." Nice, 1987. http://www.theses.fr/1987NICE4110.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Aït, Ali Ahmed Lepage Francis. "Amélioration de la mesure de la bande passante dans un réseau basé sur IP." S. l. : Nancy 1, 2007. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2007_0088_AIT.ALI.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Seurin, Yannick. "Primitives et protocoles cryptographiques à sécurité prouvée." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous étudions la relation existant entre le modèle de l'oracle aléatoire et le modèle du chiffrement par blocs idéal. Nous montrons que ces deux modèles sont équivalents : l'existence d'un cryptosystème sûr dans l'un des modèles implique l'existence d'un cryptosystème sûr dans l'autre modèle. Nous montrons que si un cryptosystème utilisant un chiffrement par blocs idéal est sûr, alors le cryptosystème reste sûr en remplaçant le chiffrement par blocs par la construction de Luby-Rackoff à 6 tours où les fonctions internes sont publiquement accessibles. Puis, nous étudions les protocoles cryptographiques fondés sur le problème LPN. Le schéma d'authentification HB+ a suscité un grand intérêt et de nombreuses variantes cherchant à renforcer sa sécurité ont été proposées. Nous cryptanalysons trois de ces variantes, puis proposons le protocole HB#. Nous proposons également un schéma de chiffrement probabiliste symétrique dont la sécurité peut être réduite à la difficulté du problème LPN
We study the relation between the random oracle model and the ideal block cipher model. We prove that these two models are equivalent: the existence of a cryptosystem secure in one of the models implies the existence of a cryptosystem secure in the other model. We prove that if a cryptosystem using an ideal block cipher is secure, then this cryptosystem remains secure when the block cipher is replaced by the Luby-Rackoff construction with 6 rounds where the inner functions are publicly accessible. Then, we study cryptographic protocols based on the LPN problem. The authentication protocol HB+ aroused much interest and several variants seeking to reinforce the security of this protocol were subsequently proposed. We present a cryptanalysis of three of these variants, and then we propose the protocol HB#. We also propose a probabilistic symmetric encryption scheme whose security against chosen plaintext attacks can be reduced to the difficulty of the LPN problem
13

Fayad, Achraf. "Protocole d’authentification sécurisé pour les objets connectés." Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT051.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’interconnexion de ressources privées sur une infrastructure publique, la mobilité des utilisateurs et l’émergence des nouvelles technologies (réseaux véhiculaires, réseaux de capteurs, Internet des objets, etc) ont ajouté des nouvelles exigences en terme de sécurité du coté serveur et celui du client. L’Internet des objets ou IoT (Internet of Things) semble répondre à des usages bien accueillis par le grand public. On trouve ainsi les applications de l’IoT dans tous les domaines de la vie du quotidien. Les objets Internet sont ainsi prévus en très grand nombre et ceci à une très grande échelle. La sécurité est l’élément majeur qui renforcera d’une manière certaine une acceptation encore plus grande des IoT par les citoyens et les entreprises. Par ailleurs, le déploiement à grande échelle des objets connectés, sera convoité par les attaques de tout bord. Les cyberattaques opérationnelles sur les réseaux traditionnels seront projetées vers l’internet des objets. La sécurité est ainsi critique dans ce contexte au vu les enjeux sous-jacents. Les travaux de recherche menés dans cette thèse visent à faire avancer la littérature sur l'authentification IoT en proposant trois schémas d'authentification qui répondent aux besoins des systèmes IoT en termes de sécurité et de performances, tout en prenant en compte les aspects pratiques liées au déploiement. L'OTP (One-Time Password) est une méthode d’authentification qui représente une solution prometteuse pour les environnements des objets connectés et les villes intelligentes. Ce travail de recherche étend le principe OTP et propose une méthode d’authentification légère utilisant une nouvelle approche de la génération OTP qui s’appuie sur la cryptographie à courbe elliptique (ECC) et l’isogénie pour garantir la sécurité. Les résultats de performance obtenus démontrent l’efficacité de notre approche en termes de sécurité et de performance.Nous nous appuyons sur la blockchain pour proposer deux solutions d’authentification: premièrement, une solution d’authentification simple et légère basée sur Ethereum, et deuxiemement, une approche adaptative d’authentification et d’autorisation basée sur la blockchain pour les cas d’utilisation de l’IoT. Nous avons fourni une véritable implémentation de ses approches. L’évaluation approfondie fournie montre clairement la capacité de nos systèmes à répondre aux différentes exigences de sécurité, avec un coût léger en terme de performance
The interconnection of private resources on public infrastructure, user mobility and the emergence of new technologies (vehicular networks, sensor networks, Internet of things, etc.) have added new requirements in terms of security on the server side as well as the client side. Examples include the processing time, mutual authentication, client participation in the choice of security settings and protection against traffic analysis. Internet of Things (IoT) is in widespread use and its applications cover many aspects of today's life, which results in a huge and continuously increasing number of objects distributed everywhere.Security is no doubt the element that will improve and strengthen the acceptability of IoT, especially that this large scale deployment of IoT systems will attract the appetite of the attackers. The current cyber-attacks that are operational on traditional networks will be projected towards the Internet of Things. Security is so critical in this context given the underlying stakes; in particular, authentication has a critical importance given the impact of the presence of malicious node within the IoT systems and the harm they can cause to the overall system. The research works in this thesis aim to advance the literature on IoT authentication by proposing three authentication schemes that satisfy the needs of IoT systems in terms of security and performance, while taking into consideration the practical deployment-related concerns. One-Time Password (OTP) is an authentication scheme that represents a promising solution for IoT and smart cities environments. This research work extends the OTP principle and propose a new approach to generate OTP based on Elliptic Curve Cryptography (ECC) and Isogeny to guarantee the security of such protocol. The performance results obtained demonstrate the efficiency and effectiveness of our approach in terms of security and performance.We also rely on blockchains in order to propose two authentication solutions: first, a simple and lightweight blockchain-based authentication scheme for IoT systems based on Ethereum, and second, an adaptive blockchain-based authentication and authorization approach for IoT use cases. We provided a real implementation of our proposed solutions. The extensive evaluation provided, clearly shows the ability of our schemes to meet the different security requirements with a lightweight cost in terms of performance
14

CHABERNAUD, JEAN-MARC. "Mesure des gaz respiratoires a l'effort dans l'insuffisance cardiaque congestive : comparaison de deux protocoles de charge." Limoges, 1989. http://www.theses.fr/1989LIMO0124.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Guen, Eloise. "Microscopie thermique à sonde locale : Etalonnages, protocoles de mesure et applications quantitatives sur des matériaux nanostructurés." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La microscopie thermique à sonde locale (SThM) est une technique qui permet de caractériser les propriétés thermiques de nanomatériaux et de mieux comprendre les transferts thermiques existants aux échelles sub-micrométriques. Pour correctement interpréter les mesures, les paramètres influençant le transfert thermique entre la pointe-sonde SThM et l’échantillon sont étudiés. Trois sondes résistives de SThM, se différenciant notamment par leur rayon de courbure micro ou nanométrique, sont tout d’abord caractérisées, et une méthodologie systématique de mesure en régime continu est proposée. Il est observé que la zone de sensibilité à la conductivité thermique des matériaux massifs plans est limitée à quelques W.m-1.K-1 pour toutes les pointes. Pour les matériaux les plus conducteurs, la mesure SThM est dominée par la résistance thermique de contact. Le transfert thermique par le (les) nanocontact(s) solide-solide entre la pointe et l’échantillon est dû à un transport conductif à la fois diffusif et balistique dans l’échantillon. Il est mis en évidence que la rugosité de surface impacte fortement la mesure SThM, diminuant le transfert thermique par le contact de plus de 50 % dans certains cas. Ces travaux sont mis à profit pour des caractérisations de nanomatériaux. La détermination de la conductivité thermique de couches minces de SiO2 sur substrat de silicium indique que les épaisseurs de quelques nanomètres jusqu’à 1 µm sont détectées par certaines pointes. La mesure de températures de changement de phase par microscopie SThM est également étudiée à l’aide d’un étalonnage sur des polymères massifs. L’application de cet étalonnage pour la caractérisation de couches minces de polymère confirme l’influence du substrat et de l’épaisseur de la couche sur la température déterminée par la pointe SThM. Ces travaux démontrent que la microscopie thermique permet d’obtenir des mesures quantitatives
Scanning thermal microscopy (SThM) is a technique that allows characterizing the thermal properties of nanomaterials and helps understanding heat transfer at submicron scales. To interpret the measurements, parameters influencing heat transfer between the probe and the sample are studied. Firstly, three resistive SThM probes, differing in particular by their micro and nanometric radii of curvature, are analyzed and a systematic methodology for the measurements is proposed. It is put forward that the sensitive zone to thermal conductivity of bulk planar materials is limited to few W.m-1.K-1 for the three probes. For the more conductive materials, SThM measurements are dominated by interfacial thermal resistance. Heat transfer at the solid-solid nanocontact between the probe and the sample can be both ballistic and diffusive. It is further demonstrated that surface roughness strongly impacts SThM measurements, decreasing heat transfer at the contact by more than 50 % in some cases. This work is used for characterizations of nanomaterials. The determination of the thermal conductivity of SiO2 thin film on silicon substrate indicates that thicknesses of a few nanometers up to 1 µm are detected by certain probes. Phase transition temperature measurement by SThM is also studied, using a calibration with bulk polymers. The application of this calibration for the characterization of polymer thin films demonstrates the influence of the substrate and the thin film thickness on the temperature determined by SThM. These results demonstrate that scanning thermal microscopy allows obtaining quantitative measurements
16

Scerri, Guillaume. "Proof of security protocols revisited." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec la généralisation d'Internet, l'usage des protocoles cryptographiques est devenu omniprésent. Étant donné leur complexité et leur l'aspect critique, une vérification formelle des protocoles cryptographiques est nécessaire.Deux principaux modèles existent pour prouver les protocoles. Le modèle symbolique définit les capacités de l'attaquant comme un ensemble fixe de règles, tandis que le modèle calculatoire interdit seulement a l'attaquant derésoudre certain problèmes difficiles. Le modèle symbolique est très abstrait et permet généralement d'automatiser les preuves, tandis que le modèle calculatoire fournit des garanties plus fortes.Le fossé entre les garanties offertes par ces deux modèles est dû au fait que le modèle symbolique décrit les capacités de l'adversaire alors que le modèle calculatoire décrit ses limitations. En 2012 Bana et Comon ont proposé unnouveau modèle symbolique dans lequel les limitations de l'attaquant sont axiomatisées. De plus, si la sémantique calculatoire des axiomes découle des hypothèses cryptographiques, la sécurité dans ce modèle symbolique fournit desgaranties calculatoires.L'automatisation des preuves dans ce nouveau modèle (et l'élaboration d'axiomes suffisamment généraux pour prouver un grand nombre de protocoles) est une question laissée ouverte par l'article de Bana et Comon. Dans cette thèse nous proposons une procédure de décision efficace pour une large classe d'axiomes. De plus nous avons implémenté cette procédure dans un outil (SCARY). Nos résultats expérimentaux montrent que nos axiomes modélisant la sécurité du chiffrement sont suffisamment généraux pour prouver une large classe de protocoles
With the rise of the Internet the use of cryptographic protocols became ubiquitous. Considering the criticality and complexity of these protocols, there is an important need of formal verification.In order to obtain formal proofs of cryptographic protocols, two main attacker models exist: the symbolic model and the computational model. The symbolic model defines the attacker capabilities as a fixed set of rules. On the other hand, the computational model describes only the attacker's limitations by stating that it may break some hard problems. While the former is quiteabstract and convenient for automating proofs the later offers much stronger guarantees.There is a gap between the guarantees offered by these two models due to the fact the symbolic model defines what the adversary may do while the computational model describes what it may not do. In 2012 Bana and Comon devised a new symbolic model in which the attacker's limitations are axiomatised. In addition provided that the (computational semantics) of the axioms follows from the cryptographic hypotheses, proving security in this symbolic model yields security in the computational model.The possibility of automating proofs in this model (and finding axioms general enough to prove a large class of protocols) was left open in the original paper. In this thesis we provide with an efficient decision procedure for a general class of axioms. In addition we propose a tool (SCARY) implementing this decision procedure. Experimental results of our tool shows that the axioms we designed for modelling security of encryption are general enough to prove a large class of protocols
17

Adnane, Hassiba-Asmaa. "La confiance dans le routage ad hoc : étude du protocole OLSR." Rennes 1, 2008. https://tel.archives-ouvertes.fr/tel-00354194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La notion de confiance, quoique implicite, est toujours présente dans le fonctionnement des protocoles, en particulier, entre les entités qui participent aux opérations de routage. Dans notre travail, nous nous sommes intéressés à la gestion de la confiance comme une solution de sécurité pour le protocole OLSR (Optimized Link State Routing Protocol). Cette approche s'adapte particulièrement à la nature mobile, ad-hoc, distribuée et auto-organisée des réseaux ad-hoc. De plus, la gestion explicite de la confiance permet aux entités de raisonner avec et à propos de la confiance, les rendant ainsi plus robustes pour la prise de décisions concernant les autres entités. Nous commençons par une analyse du fonctionnement du protocole OLSR sous l'optique de la confiance. Ensuite, nous proposons un raisonnement basé sur la confiance pour permettre à chaque noeud d'évaluer le comportement des autres noeuds, de détecter les comportements malveillants, et donc de pouvoir décider de faire confiance ou non. Enfin, nous proposons une solution de prévention et des contremesures pour résoudre le cas d'une incohérence et contrer les comportements malveillants. Ces solutions ne nécessitent que peu de modifications sur le protocole OLSR et peuvent être étendues selon le type d'attaque et les besoins des utilisateurs
The implicit trust is always present in the operating protocols, in particular, between the entities involved in routing operations. In our work, we are interested by trust management as security solution for OLSR protocol. This approach fits particularly with characteristic of ad-hoc networks. Moreover, the explicit trust management allows entities to reason with and about trust, and to take decisions regarding other entities. First, we analyse the fonctionning of OLSR protocol under the terms of trust. Then, we propose a trust-based reasoning which allow to each node to evaluate the behavior of the other nodes, to detect misbehavior nodes, and then to be able to trust or not the other nodes. Finally, we propose a solutions of prevention and contermeasures to resolve the situations of inconsistency, and counter the malicious nodes. These solutions require only minor modifications on the OLSR and can be extended depending on the attack type and users needs
18

Jaubert, Jean. "Etude de quelques interactions entre espèces et facteurs de l'environnement (lumière, température et oxygène dissous) mesurés in situ en milieu récifal conception et réalisation d'instruments de mesure et protocoles expérimentaux /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37606222p.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Pittoli, Philippe. "Influence d'une architecture de type maître-esclave dans les problématiques de sécurité de l'Internet des objets." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD006/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'Internet des objets est un principe selon lequel des clients sur Internet peuvent contacter des objets intelligents de notre quotidien, comme des capteurs de température d'une pièce ou des ampoules connectées. Ces objets sont contraints en mémoire, en capacité de calcul et aussi en capacité de communication (taille des paquets, médium partagé). Le travail effectué se focalise sur des problématiques liées à ces contraintes. Lorsqu'un client souhaite envoyer une commande à un objet, il a le choix de s'y connecter directement (architecture bout-en-bout) ou de se connecter à une passerelle réseau (non contrainte en mémoire et en calculs) qui jouera le rôle d'intermédiaire entre les clients et les objets (architecture maître-esclave). Le travail effectué consiste à comprendre les différences entre ces deux architectures et leur viabilité dans des réseaux de l'Internet des Objets
The Internet of things is a network design where "things" are connected to the Internet, such as thermometers or lights. These objects are constrained in memory, computational capacity and communication (packet size, shared medium). The thesis is focused on issues around those constraints. A client willing to send a request to an object may either establish a direct connection to the object (end-to-end architecture) or establish a connection to the network gateway, which is not constrained in memory or computation capabilities, and will be used as a broker between clients and objects (master-slave architecture). This purpose of the thesis is to understand and to spotlight the differences between those two kinds of architectures and to determine their viability in an IoT context
20

Ligier, Simon. "Développement d’une méthodologie pour la garantie de performance énergétique associant la simulation à un protocole de mesure et vérification." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM083/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les écarts communément observés entre les prévisions de consommations énergétiques et les performances réelles des bâtiments limitent le développement des projets de construction et de réhabilitation. La garantie de performance énergétique (GPE) a pour vocation d’assurer des niveaux de consommations maximaux et donc de sécuriser les investissements. Sa mise en place fait cependant face à plusieurs problématiques, notamment techniques et méthodologiques. Ces travaux de thèse se sont intéressés au développement d’une méthodologie pour la GPE associant les outils de simulation énergétique dynamique (SED) à un protocole de mesure et vérification. Elle repose d’abord sur la modélisation physico-probabiliste du bâtiment. Les incertitudes sur les paramètres physiques et techniques, et les variabilités des sollicitations dynamiques sont modélisées et propagées dans la SED. Un modèle de génération de données météorologiques variables a été développé. L’étude statistique des résultats de simulation permet d’identifier des modèles liant les consommations d’intérêt à des facteurs d’ajustement, caractéristiques des conditions d’exploitation. Les méthodes de régression quantile permettent de déterminer le quantile conditionnel des distributions et caractérisent donc conjointement la dépendance aux facteurs d’ajustement et le niveau de risque de l’engagement. La robustesse statistique de ces méthodes et le choix des meilleurs facteurs d’ajustement ont été étudiés, tout comme l’influence des incertitudes sur la mesure des grandeurs d’ajustement en exploitation. Leur impact est intégré numériquement en amont de la méthodologie. Cette dernière est finalement mise en œuvre sur deux cas d’étude : la rénovation de logements, et la construction de bureaux
Discrepancies between ex-ante energy performance assessment and actual consumption of buildings hinder the development of construction and renovation projects. Energy performance contracting (EPC) ensures a maximal level of energy consumption and secures investment. Implementation of EPC is limited by technical and methodological problems.This thesis focused on the development of an EPC methodology that allies building energy simulation (BES), and measurement and verification (M&V) process anticipation. The building parameters’ uncertainties and dynamic loads variability are considered using a Monte-Carlo analysis. A model generating synthetic weather data was developed. Statistical studies of simulation results allow a guaranteed consumption limit to be evaluated according to a given risk. Quantile regression methods jointly capture the risk level and the relationship between the guaranteed energy consumption and external adjustment factors. The statistical robustness of these methods was studied as well as the choice of the best adjustment factors to consider. The latter will be measured during building operation. The impact of measurement uncertainties is statistically integrated in the methodology. The influence of M&V process accuracy is also examined. The complete EPC methodology is finally applied on two different projects: the refurbishment of a residential building and the construction of a high energy performance office building
21

Sorniotti, Alessandro. "Protocoles pour Poignées de Main Secrètes." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00006276.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les utilisateurs qui coopèrent sur des réseaux non fiables ont souvent besoin d'établir une confiance initiale; cette étape peut etre très délicate si elle implique l'échange d'informations sensibles, telles l'affiliation à une société secrète ou à des services de renseignement. Le mécanisme de la poignée de main secrète fournit une solution à ce problème. La poignée de main secrète est un protocole qui permet à deux utilisateurs de vérifier mutuellement des propriétés et, en cas de correspondance simultanée, de partager une clé pour sécuriser les communications. Le protocole assure qu'aucune entité malveillante n'apprenne quelque-chose en interagissant avec des utilisateurs légitimes ou en écoutant les échanges du protocole. Dans cette thèse, nous présentons plusieurs nouveaux protocoles visant à fournir de nouvelles fonctionnalités ou à fixer les lacunes des protocoles existants dans la littérature. Dans un premier temps, nous nous concentrons sur un nouveau concept de poignée de main secrète appelé vérification dynamique contrôlée, qui généralise les autres variantes du protocole. Nous étudions ensuite le problème de la révocation des titres pour la poignée de main secrète, en présentant une approche grâce à laquelle nous pouvons obtenir la révocation pour chacune des différentes variantes du protocole connues dans la littérature. En outre, nous étudions deux protocoles de poignées de main secrète décentralisés: l'un où un certain nombre d'entités distinctes peut gérer le protocole, et l'autre où le système est auto-géré par ses utilisateurs. Enfin, nous étudions deux cas d'utilisation de ce protocole, le premier impliquant des réseaux sociaux en ligne et le second couvrant la gestion d'une chaîne d'approvisionnement.
22

Leita, Corrado. "Automated protocol learning for the observation of malicious threats." Nice, 2008. http://www.theses.fr/2008NICE4061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des préalables au développement de défenses fiables pour la protection d'un réseau informatique est la collection de données quantitatives sur les menaces qui le visent depuis l'Internet. Ce besoin de « connaître notre ennemi » induit un intérêt croissant pour la collecte et l'exploitation des informations sur les activités malveillantes observables. La création de bases de données recensant ces événements n'est pas une tâche facile. En effet, il faut pouvoir tenir compte de la diversité quantitative et spatiale des attaques. La collecte des données doit être pratiquée sur une grande échelle car les sources et destinations d'attaques ne sont pas uniformément réparties sur l'espace des adresses IP. En même temps, les techniques de collecte de données doivent être suffisamment sophistiquées pour extraire une quantité suffisante d'informations sur chaque activité et permettre des déductions sur les phénomènes observés. Il faut donc pouvoir déployer un grand nombre de capteurs et chacun de ces capteurs doit être à même de fournir des informations riches. Ce travail propose une solution qui concilie facilité de déploiement et richesse de collecte. Il introduit de nouvelles techniques pour construire des systèmes de collecte de données simples mais évolutives, capables de fournir des informations détaillées sur les événements observés. Ces techniques sont mises en pratique dans un système distribué qui a recueilli des informations sur une période de 8 mois dans 23 différents réseaux situés dans le monde entier (Europe, Australie, Etats Unis). Ces informations ont été organisées dans un base de données, et une méthode d'analyse a été proposée et validée sur ces données
One of the main prerequisites for the development of reliable defenses to protect a network resource consists in the collection of quantitative data on Internet threats. This attempt to “know your enemy” leads to an increasing interest in the collection and exploitation of datasets providing intelligence on network attacks. The creation of these datasets is a very challenging task. The challenge derives from the need to cope with the spatial and quantitative diversity of malicious activities. The observations need to be performed on a broad perspective, since the activities are not uniformly distributed over the IP space. At the same time, the data collectors need to be sophisticated enough to extract a sufficient amount of information on each activity and perform meaningful inferences. How to combine the simultaneous need to deploy a vast number of data collectors with the need of sophistication required to make meaningful observations? This work addresses this challenge by proposing a protocol learning technique based on bioinformatics algorithms. The proposed technique allows to automatically generate low-cost responders starting from a set of samples of network interaction. Its characteristics are exploited in a distributed honeypot deployment that collected information on Internet attacks for a period of 8 months in 23 different networks distributed all over the world (Europe, Australia, United States). This information is organized in a central dataset that is analyzed in the context of this work
23

Labelle, Simon. "Étude de la mesure de la fiabilité des analyses de protocole dans le cadre de réunions techniques en génie logiciel." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0020/MQ53584.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Aït, Ali Ahmed. "Amélioration de la mesure de la bande passante dans un réseau basé sur IP." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10088/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux menés dans cette thèse s’intéressent particulièrement à la mesure de la bande passante disponible qui est un paramètre très important pour le bon fonctionnement de plusieurs applications réseaux et dont la détermination avec précision reste jusqu’à aujourd’hui un défi à relever. Ces travaux visent donc à améliorer les techniques de mesure de ce paramètre en proposant un nouveau modèle déterministe basé sur la technique de la paire de paquets. Ce dernier est implémenté dans un nouvel outil de mesure appelé IGMPS. Les test expérimentaux visant à évaluer les performances de cette outil ont montré que ce dernier permet de mesurer la bande passante disponible avec une très grande précision qui dépasse largement celle offerte par les autres outils existants. Par ailleurs, une analyse de sensibilité et un calcul d’incertitudes sur les modèles étudiés ont montré que les erreurs dues à l’estampillage des paquets sondes au niveau de l’émetteur et du récepteur sont principalement à l’origine de l’imprécision des mesures fournies par les différents outils de mesure de la bande passante disponible
This thesis work is focused on the end-to-end available bandwidth measurement that has attracted extensive attentions this last decade. This parameter is useful for several network applications, however, its measurement with good accuracy still stays a challenge to take up. To improve the performance of the available bandwidth measurement techniques, we developed a new deterministic model of packet pair delays that takes into account the probing packet size parameter; and implemented it in a new measurement tool called IGMPS. Through measurements on several network testbed configurations, we evaluated IGMPS and found that it provides available bandwidth measurements with high accuracy. Using sensitivity and uncertainty analysis to study the proposed model, we investigated the sources of observed errors on the measurement tools. We found that these errors are likely to be inherent in delay measurement. Indeed, the timestamping operations at the sender end the receiver are mainly at the origin of the inaccuracy of the estimates provided by the available bandwidth measurement tools
25

Boisseau, Alexandre. "Abstractions pour la vérification de propriétés de sécurité de protocoles cryptographiques." Cachan, Ecole normale supérieure, 2003. https://tel.archives-ouvertes.fr/tel-01199555.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis le développement de l'utilisation des réseaux informatiques et de l'informatisation des communications, il est apparu pour le public un besoin de sécuriser les communications électroniques. Les considérations cryptographiques constituent un élément de réponse au problème de la sécurité des communications et les protocoles cryptographiques décrivent comment intégrer la cryptographie à l'intérieur de communications réelles. Cependant, même dans le cas où les algorithmes de chiffrement sont supposés robustes, les protocoles peuvent présenter des failles de conception exploitables (failles logiques), entrainant un besoin de vérification formelle. Dans cette thèse, nous utilisons des techniques d'abstraction afin de prouver formellement divers types de propriétés. Les propriétés de secret et d'authentification, les propriétés de type équité et des propriétés de type anonymat
Since the development of computer networks and electronic communications, it becomes important for the public to use secure electronic communications. Cryptographic considerations are part of the answer to the problem and cryptographic protocols describe how to integrate cryptography in actual communications. However, even if the encryption algorithms are robust, there can still remain some attacks due to logical flaw in protocols and formal verification can be used to avoid such flaws. In this thesis, we use abstraction techniques to formally prove various types of properties : secrecy and authentication properties, fairness properties and anonymity
26

Ninet, Tristan. "Formal verification of the Internet Key Exchange (IKEv2) security protocol." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous analysons le protocole IKEv2 à l'aide de trois outils de vérification formelle : Spin, ProVerif et Tamarin. Pour effectuer l'analyse avec Spin, nous étendons une méthode existante de modélisation. En particulier, nous proposons un modèle de la signature numérique, du MAC et de l'exponentiation modulaire, nous simplifions le modèle d'adversaire pour le rendre applicable à des protocoles complexes, et nous proposons des modèles de propriétés d'authentification. Nos analyses montrent que l'attaque par réflexion, une attaque trouvée par une précédente analyse, n'existe pas. De plus, nos analyses avec ProVerif et Tamarin produisent de nouvelles preuves concernant les garanties d'accord non injectif et d'accord injectif pour IKEv2 dans le modèle non borné. Nous montrons ensuite que la faille de pénultième authentification, une vulnérabilité considérée comme bénigne par les analyses précédentes, permet en fait d'effectuer un nouveau type d'attaque par déni de service auquel IKEv2 est vulnérable : l'Attaque par Déviation. Cette attaque est plus difficile à détecter que les attaques par déni de service classiques mais est également plus difficile à réaliser. Afin de démontrer concrètement sa faisabilité, nous attaquons avec succès une implémentation open-source populaire de IKEv2. Les contre-mesures classiques aux attaques DoS ne permettent pas d'éviter cette attaque. Nous proposons alors deux modifications simples du protocole, et prouvons formellement que chacune d'entre elles empêche l'Attaque par Déviation
In this thesis, we analyze the IKEv2 protocol specification using three formal verification tools: Spin, ProVerif and Tamarin. To perform the analysis with Spin, we extend and improve an existing modeling method with a simpler adversary model and a model for common cryptographic primitives and Lowe's authentication properties. As a result we show that the reflection attack, an attack found by a previous analysis, is actually not applicable. Moreover, our analysis using ProVerif and Tamarin provides new results regarding non-injective agreement and injective agreement guaranties of IKEv2 in the unbounded model. We then show that the penultimate authentication flaw, a vulnerability that was considered harmless by previous analyses, actually allows for a new type of Denial-of-Service attack, which works against IKEv2: the Deviation Attack. The Deviation Attack is harder to detect than existing DoS attacks, but is also harder to perform. To concretely demonstrate the attack, we successfully implement it against a popular open-source implementation of IKEv2. Finally, we study the use of existing DoS countermeasures and existing configuration options to defeat the attack, but we only find mitigations or incomplete workarounds. We therefore tackle the problem at a higher level: we propose two possible inexpensive modifications of the protocol, and formally prove that they both prevent the attack
27

Nounouh, Soufiane. "Protocoles de mesure et de calibrage de champs électromagnétiques en vue de l'imagerie par diffraction d'objets faiblement enfouis." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4750/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la mise en place d'un système hyperfréquence dédié à l'imagerie du proche sous-sol. L'analyse de l'onde mesurée après interaction de l'onde incidente avec le milieu permet de remonter aux propriétés électromagnétiques de la structure illuminée. Ici, nous choisissons d'utiliser une seule fréquence en s'appuyant sur une configuration multistatique pour garantir une meilleure diversité de l'information.L'imagerie quantitative exige un calibrage minutieux des données mesurées après correction des erreurs expérimentales. Un calibrage a été donc proposé, basé sur la mesure du diagramme de rayonnement de chaque antenne. Celles-ci sont modélisées quantitativement en champ proche grâce à une combinaison de fils sources adéquatement optimisée. Ce calibrage, rapide et simple, ne nécessite pas d'objets de calibrage supplémentaires. Il a été d'abord testé dans le cas de la diffraction par des objets 2D en espace libre, puis dans le cas d'objets faiblement enfouis. Les champs calibrés servent de données d'entrée à des algorithmes d'inversion. En terme de localisation, les résultats obtenus sont très satisfaisants. Quant à la caractérisation, la configuration stratifiée apparaît bien moins propice que la configuration en espace libre, de part la faible quantité d'information disponible. Des changements ont été apportés à la configuration (différentes antennes avec ou sans orientation) dans l'optique d'améliorer le rapport signal à bruit. Bien que les reconstructions des permittivité soient encore perfectibles, les premiers résultats sont intéressants d'autant plus que les algorithmes n'exploitent aucune information a-priori sur la cible
This thesis is devoted to the development of a microwave system dedicated to subsurface imaging applications. The analysis of the measured wave after the interaction with the medium allows to retrieve the electromagnetic properties of the probed structure. Here, we choose a single frequency operating mode combined with a multistatic configuration in order to improve the information diversity.Quantitative imaging requires a high-precision calibration of the measured data even after a careful correction of experimental errors. Thus, a calibration method is proposed, exploiting the measurement in free-space of the radiation pattern of each antenna. These patterns are quantitatively modeled thanks to an optimized linear combination of elementary sources positioned on the antenna's aperture. This simple and efficient calibration avoids additional measurements with calibration objects. This method provides successful results in a 2D free space scattering problem, as well as in the shallowly buried targets case.The calibrated data serve as inputs to inversion algorithms. As localization is concerned, very satisfactory detection results are obtained. Regarding the characterization aspects, the results indicate that the stratified configuration is less suitable than the free space configuration, due to its lack of spatial information. In order to improve the signal-to-noise ratio, some amendments are made to the experimental configuration (different antennas with or without orientation). Although the permittivity reconstructions are perfectible, the first results are promising especially since no a-priori on the targets has been inserted in the inversion algorithm so far
28

Allard, Fabien. "Le transfert de contexte : atout pour la mobilité et outil de réduction de coûts pour la sécurité." Télécom Bretagne, 2009. http://www.theses.fr/2008TELB0090.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation d'Internet doit pouvoir se faire en confiance pour l'utilisateur, mais cette sécurité a un coût pour les FAIs (Fournisseurs d'Accès à Internet) en terme de consommation de la bande passante et de calcul du matériel cryptographique. Dans un contexte de mobilité, cette sécurité doit être remise en place après chaque déplacement et pour chaque client. Ainsi, un nouveau type de mécanisme a vu le jour dans les instances de standardisation : le transfert de contexte. Celui-ci a pour but de transmettre, d'un équipement à un autre, les données adéquates pour que les services rendus n'aient pas de discontinuités. Ce mécanisme pourrait être un atout pour un opérateur car il lui permettrait d'assurer le même niveau de sécurité pendant les déplacements des usagers dans le réseau tout en ayant des coûts aussi bas que possible. Dans ce travail de thèse, nous avons utilisé le protocole CXTP (Context Transfer Protocol) défini à l'IETF (Internet Engineering Task Force) pour transférer des contextes de sécurité entre routeurs d'accès. Après une analyse pratique en utilisant l'outil AVISPA et une autre plus conceptuelle, nous avons prouvé que ce protocole n'est pas exempt de failles de sécurité. Nous avons donc défini une première solution destinée à combler ces failles, mais celle-ci dégrade les performances du transfert de contexte. Nous avons alors proposé une deuxième solution basée sur les adresses générées de manière cryptographique qui garantit le même niveau de sécurité que la première solution tout en étant aussi efficace que la spécification originelle de CXTP. Nous avons ensuite présenté deux cas d'utilisation du transfert de contexte pour la sécurité : PANA et IPsec. Dans le premier cas, nous avons isolé le contexte PANA et montré comment il peut être transféré avec CXTP. Dans le second cas, nous avons isolé les quatre contextes IPsec (SAD, SPD, PAD et IKE) et implémenté le transfert de contexte IPsec/IKEv1 par le protocole CXTP afin d'obtenir des résultats concrets. Les mesures de performances montrent que le transfert de contexte peut réduire de manière drastique le temps nécessaire au réétablissement d'un tunnel IPsec après déplacement du mobile. Nous avons également proposé une solution de gestion des collisions de SPIs après déplacement du mobile en utilisant MOBIKE lorsque les associations sont mises en place grâce à IKEv2. Nous avons montré que certains problèmes peuvent survenir après le déplacement d'un contexte, et qu'il est généralement nécessaire qu'il soit reconfiguré. Enfin, nous avons comparé par simulation le transfert de contexte et la pré-authentification pour PANA dans l'environnement OMNeT++. Même si les résultats obtenus montrent que le transfert de contexte permet d'obtenir de meilleures performances, nous pensons que les deux mécanismes sont complémentaires
29

Bernat, Vincent. "Théories de l'intrus pour la vérification des protocoles cryptographiques." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00132064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d'un protocole cryptographique obéit à de nombreux impératifs : algorithmes à utiliser, propriétés à garantir, moyen d'identification, etc. Il apparaît donc régulièrement de nouveaux protocoles qu'il convient de vérifier. Malgré l'apparente simplicité, concevoir un protocole cryptographique est une tâche difficile et sujette à de nombreuses erreurs. Des failles pour certains protocoles ont été découvertes des années après leur conception. La plupart des travaux existants se basent uniformément sur l'intrus de Dolev Yao et ne se généralisent pas automatiquement à un intrus disposant de capacités supplémentaires ou différentes. Dans cette thèse, nous allons présenter un système de déduction prenant le pouvoir de l'intrus comme paramètre. De plus, les règles de protocole seront vues comme une capacité additionnelle pour l'intrus. Le résultat principal est un théorème de normalisation de preuve permettant de réduire l'espace de recherche des attaques.
30

Chevalier, Céline. "Etude de protocoles cryptographiques à base de mots de passe." Paris 7, 2009. http://www.theses.fr/2009PA077183.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une propriété fondamentale procurée par la cryptographie est la création de canaux de communication sûrs, c'est-à-dire garantissant l'authentification, l'intégrité et la confidentialité des données transférées. L'authentification, qui permet à plusieurs utilisateurs de se convaincre de l'identité de leurs interlocuteurs, est généralement une étape préalable à la communication proprement dite, et ce procédé est souvent couplé à la génération d'une clef de session secrète qui permet ensuite de chiffrer toute les messages échangés. Nous nous concentrons ici sur un type d'authentification particulier, basé sur des mots de passe. Nous rappelons tout d'abord les différents cadres de sécurité, ainsi que les protocoles d'échange de clefs existants, en insistant particulièrement sur un nouveau cadre, dit de composabilité universelle. Nous montrons ensuite que deux variantes de protocoles existants restent sûres dans ce contexte, sous des hypothèses de sécurité très fortes, et dans les modèles de l'oracle aléatoire et du chiffrement idéal. Dans un troisième temps, nous étendons une primitive (les smooth hash functions) pour obtenir un protocole avec un niveau de sécurité équivalent, mais cette fois dans le modèle standard. Ce dernier aboutit non plus sur une chaîne de bits mais sur un élément de groupe aléatoire. Nous présentons alors un algorithme d'extraction d'aléa à partir d'un tel élément de groupe, pour obtenir finalement une chaîne de bits aléatoire. Enfin, nous montrons comment étendre l'utilisation des mots de passe à des primitives à clef publique en définissant la nouvelle notion de cryptographie distribuée à base de mots de passe
A fundamental property fulfilled by cryptography is the creation of secure communication channels, which guarantee authentication, integrity and confidentiality of the data transfered. Authentication, which allows several users to be convinced of the identities of their interlocutors, is generally nothing but a preliminary step to the proper communication, and is often coupled with the generation of a secret session key, which then enables the encryption of the following messages. We focus here on a particular type of authentication, based on passwords. We first recall the different security frameworks, as well as the existing protocols, particularly insisting on the new framework of universal composability. We show next that two variants of existing protocols remain secure in this context, under strong security hypothesis, and in the random oracle and ideal cipher models. In a third step, we extend the smooth hash functions to obtain a protocol with an equivalent level of security, but this time in the standard model. This protocol does not output a bitstring anymore, but a random group element. We then present a randomness ex-tractor from such a group element, to obtain a random bitstring. Finally, we show how to extend the use of passwords to public key primitives, by defining the new notion of distributed cryptography from passwords
31

Hördegen, Heinrich. "Vérification des protocoles cryptographiques : comparaison des modèles symboliques avec une application des résultats : étude des protocoles récursifs." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10083.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la vérification des protocoles cryptographiques. Son sujet est la modélisation symbolique de protocoles avec pour objectif la preuve de propriétés de sécurité. La thèse comprend deux parties: La première partie définit quatre modèles symboliques différant par les moyens syntaxiques que les concepteur peuvent utiliser pour représenter les primitives cryptographiques. On a observé que les vérificateurs utilisent des astuces de codage dans des modèles peu riches pour représenter les primitives manquantes. Nous montrons que ces codages sont corrects dans le sens où un protocole qui satisfait une propriété dans un modèle peu expressif la satisfait aussi dans un modèle plus riche. Nous terminons cette partie par la description d'un module que nous avons implémenté pour la plate-forme de vérification AVISPA. Ce module est basé sur des résultats permettant le transfert des propriétés d'un protocole, prouvées dans un modèle symbolique, vers un modèle calculatoire. Dans la deuxième partie de cette thèse, nous développons un modèle symbolique pour représenter des protocoles récursifs. Ces protocoles sont difficiles à analyser et peu de résultats de décidabilité existent. Nous montrons que notre modèle symbolique permet de retrouver une attaque connue contre une propriété d'un protocole de commerce électronique. Nous proposons ensuite une modification de ce protocole et montrons que le protocole modifié satisfait cette propriété
This thesis deals with formal verification of cryptographic protocols. It is about symbolic modelling of protocols with the objective to prove security properties. The thesis is split in two parts: The first part defines four symbolic models which differ in the syntactic resources that protocol designers may use do model cryptographic primitives. We found that engineers employ coding dodges in order to model missing cryptographic primitives in simpler models. We showed that these codings are correct in that protocol properties that are proven in lean models also hold in more elaborated models. We finish this part with the description of a module implementation for the verification plate-form AVISPA. The module is based on results that allow to automatically translate protocol properties, proven in symbolic models, to computational models. In the second part of this thesis, we develop a symbolic model in order to represent ecursive protocols. This class of protocols is difficult to analyse and, so far, there are only few decidability results. We show that our symbolic model allows us to retrieve an previously known attack against a special security property of an e-commerce protocol. We then modify this protocol and show that the property holds for the modified protocol
32

Guts, Nataliya. "Auditabilité pour les protocoles de sécurité." Paris 7, 2011. http://www.theses.fr/2011PA077004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les protocoles de sécurité enregistrent souvent des données disponibles lors de leurs exécutions dans un journal pour une éventuelle analyse a posteriori, aussi appelée audit. En pratique, les procédures d'audit restent souvent informelles, et le choix du contenu des journaux est laissé au bon sens du programmeur. Cette thèse a pour but la formalisation et la vérification des propriétés attendues des journaux d'audit. D'abord, nous nous intéressons à l'utilisation des journaux par les protocoles de sécurité dits optimistes qui, contrairement aux protocoles classiques, reposent sur le contenu des journaux pour remettre certaines vérifications de sécurité à la fin de leur exécution. Nous faisons une étude formelle de deux schémas optimistes : la mise en gage de valeur et le porte-monnaie électronique. En appliquant les techniques issues des langages de processus, nous montrons que les informations enregistrées par leurs implémentations suffisent pour détecter toute tentative de tricherie de participants. Ensuite nous définissons l'auditabilité comme la capacité d'un protocole de collecter assez de preuves pour convaincre une procédure d'audit préétablie (juge). Nous proposons une méthode basée sur les types avec des raffinements logiques, pour vérifier l'auditabilité, et nous l'implémentons dans une extension d'un typeur existant. Nous montrons que la vérification de l'auditabilité se réduit à une vérification par le typage. Nous implémentons également un support logique des pré- et post-conditions génériques pour améliorer le typage modulaire des fonctions d'ordre supérieur
Security protocols often log some data available at runtime for an eventual a posteriori analysis, called audit. In practice, audit procedures remain informal, and the choice of log contents is left to the programmer's common sense. The goal of this dissertation is to formalize and verify the properties expected from audit ! logs. First we consider the use of logs in so called optimistic security protocols which, as opposed to classic security protocols, rely on the logs to postpone certain security checks until the end of execution. We formally study two optimistic schemes: value commitment scheme and offline e-cash; using process languages techniques, we prove that the information logged by their implementations suffices to detect the cheat of participants, if any. Then we define auditability as the ability of a protocol to collect enough evidence to convince an audit ! procedure (judge). We propose a method based on types with logical refinements to verify auditability, and ; implement it as an extension to an existing typechecker. We show that verifying auditability boils down to typechecking the protocol implementation. We also implement logical support for generic pre- and post-! conditions to enhance modular typechecking of higher-order functions
33

NGUYEN, XUAN FLORENCE. "Conception d'un protocole de mesure de la catalycite des materiaux sous flux d'oxygene atomique / echelle de catalycite et vieillissement rapide des surfaces." Paris 6, 1997. http://www.theses.fr/1997PA066147.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail presente une etude de la recombinaison de l'oxygene atomique sur des surfaces metalliques et de carbure de silicium, au sens de la catalycite des materiaux, dans le cadre du retour en atmosphere des engins spatiaux. Il s'agit de quantifier le transfert d'energie des especes excitees du plasma forme par les vitesses elevees de l'engin, aux tuiles du systeme de protection thermique. Ce transfert d'energie est caracterise par deux grandeurs : le coefficient de recombinaison, qui evalue le nombre d'atomes recombinants, (determine par la technique spectroscopique d'actinometrie dans ces travaux), et le coefficient d'accommodation de la chaleur, qui evalue la part de la chaleur de la reaction de recombinaison cedee a la surface, (determine par calorimetrie). La quantification experimentale de ces grandeurs a ete effectuee en plasma basse pression d'air ou d'oxygene, en decharge pulsee. La mise au point des techniques experimentales et leur validation ont ete effectuees sur des surfaces metalliques. Puis ces techniques ont ete mises en application sur le carbure de silicium, composant de base des systemes de protection thermiques, sur une gamme de temperature de surface de 300k a 1073k. De cette etude ont ete deduites deux energies d'activation differentes temoignant d'un changement avec la temperature dans le mecanisme reactionnel de recombinaison. Par ailleurs, l'etude en decharge pulsee a permis de mettre en evidence des modifications chimiques de la surface de carbure de silicium, progressives et intervenant pour des temps tres courts d'exposition au plasma. La notion de vieillissement rapide des surfaces est alors introduite comme facteur de perturbation de la mesure, en termes d'oxydation (formation d'une couche de silice passivante sur le carbure de silicium), d'ablation ou d'evaporation.
34

Jarma, Yesid. "Protection de ressources dans des centres de données d'entreprise : architectures et protocoles." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00666232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours des dernières années, l'apparition de l'Internet a changé la façon dont les affaires sont menées partout dans le monde. Pour rester compétitives, les entreprises ont déployé du support informatique pour les processus métiers au fil des années. Dans ce contexte, les architectures orientées service (SOA) ont émergé comme la solution principale pour l'intégration des systèmes patrimoniaux avec les nouvelles technologies au coeur des grandes organisations. Les centres de traitement de données d'entreprise qui implémentent les concepts et solutions des SOA sont normalement déployés en suivant une architecture à deux niveaux où, pour libérer les serveurs de services des tâches computationnelles intensives (e.g., l'analyse syntaxique de documents XML) et pour effectuer de la protection de ressources, ces fonctions sont déchargées dans un cluster d'appliances qui implémentent des fonctions des réseaux orientées service (SON). Dans les centres de traitement, l'accès aux services est gouverné par des contrats de garantie de services (SLA), dont le but est de protéger les ressources du centre de traitement. Actuellement, les appliances SON sont utilisées pour protéger les ressources du centre de traitement en limitant l'accès (e.g., en contrôlant le trafic) aux services. Le provisionnement et l'optimisation de ressources sont des problèmes classiques de la gestion de la QoS. En outre, le contrôle de trafic est un problème très connu de l'ingénierie de trafic. Cependant, dans les centres de traitement orientés service le problème est fondamentalement diffèrent. Dans les réseaux classiques, les ressources protégée par la fonction de mise en conformité sont normalement la bande passante et la taille des mémoires tampon, dont les unités de mesure sont clairement définies et mesurées avec précision. Dans un centre de traitement, les métriques des ressources sont comprises pour la plupart dans un des types suivants: puissance de calcul et mémoire des serveurs d'application (CPU et RAM), capacité de stockage des serveurs de stockage (espace en disque dur), et la bande passante du réseau interne du centre de traitement. Une autre différence fondamentale est que, dans les réseaux dits "classiques", le contrôle de trafic a une étendue locale, puisque le trafic prend la conformité d'une connexion simple. Dans un centre de traitement, les clients de service accèdent aux services à partir de multiples points d'entrée (p.ex., un cluster d'appliances SON). Ainsi, l'effet désiré est une mise en conformité "globale" du trafic. Le défi est donc faire respecter les contrats de service en agissant localement dans chaque point d'entrée. Cette thèse apporte trois contributions. D'abord nous proposons DoWSS, un algorithme dynamique basé sur des crédits pour la mise en conformité de trafic multipoint-à-point. À la différence des approches existantes basées sur des crédits, notre approche utilise une stratégie doublement pondérée pour l'affectation de crédits, en utilisant des poids basés sur la taille des requêtes de service. L'évaluation de DoWSS montre que ses performances sont optimales puisqu'il limite le nombre de requêtes au maximum permis par le contrat de service. Par la suite, nous affirmons que les appliances SON actuelles présentent des limitations architecturales qui les empêchent d'être utilisées efficacement pour la mise en conformité de trafic en présence d'hôtes de service multiples. Pour palier à ce problème, nous proposons MuST, une architecture interne pour les appliances SON appropriée pour la mise en conformité de trafic multi-service. L'évaluation des performances de notre approche montre qu'elle résout le problème de la mise en conformité de trafic multipoint-à-multipoint tout en poussant le système à être utilisé à sa capacité maximale. Finalement, actuellement les applications sont souvent déployées dans des centres de données géographiquement distribués. Les approches existantes pour la mise en conformité de trafic, lesquelles ont étés conçues spécifiquement pour des centres de données aménagés sur un même site, présentent des problèmes liés aux latences réseau quand ils sont utilisés dans des environnements géographiquement distribués. Pour palier à ce problème, nous proposons GeoDS, un approche pour la mise en conformité du trafic géographiquement distribué qui considère les délais de communication entre les entités qui forment le système. L'évaluation de ses performances montre qu'il est capable de résoudre efficacement le problème de la mise en conformité du trafic dans les environnements géographiquement distribués.
35

Arnaud, Mathilde. "Formal verification of secured routing protocols." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00675509.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
With the development of digital networks, such as Internet, communication protocols are omnipresent. Digital devices have to interact with each other in order to perform the numerous and complex tasks we have come to expect as commonplace, such as using a mobile phone, sending or receiving electronic mail, making purchases online and so on. In such applications, security is important. For instance, in the case of an online purchase, the right amount of money has to be paid without leaking the buyer personal information to outside parties. Communication protocols are the rules that govern these interactions. In order to make sure that they guarantee a certainlevel of security, it is desirable to analyze them. Doing so manually or by testing them is not enough, as attacks can be quite subtle. Some protocols have been used for years before an attack was discovered. Because of their increasing ubiquity in many important applications, e.g. electronic commerce, a very important research challenge consists in developing methods and verification tools to increase our trust on security protocols, and so on the applications that rely on them. For example, more than 28 billion Euros were spent in France using Internet transactions, and the number is growing. Moreover, new types of protocols are continuously appearing in order to face new technological and societal challenges, e.g. electronic voting, electronic passport to name a few.
36

Cherif, Amina. "Sécurité des RFIDs actifs et applications." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours des 30 dernières années, les dispositifs RFID actifs sont passés de simples dispositifs d’identification (tags) à des noeuds autonomes qui, en prime, collectent (à partir de l’environnement ou d’autres sources) et échangent des données. En conséquence, le spectre de leurs applications s’est largement étendu, passant de la simple identification à la surveillance et à la localisation en temps réel. Ces dernières années, grâce à leurs avantages, l’utilisation de noeuds RFID actifs pour la collecte de données mobiles a suscité une attention particulière. En effet, dans la plupart des scénarios, ces noeuds sont déployés dans des environnements adverses. Les données doivent donc être stockées et transmises de manière sécurisée pour empêcher toute attaque par des adversaires actifs : même si les noeuds sont capturés, la confidentialité des données doit être assurée. Toutefois, en raison des ressources limitées des noeuds en termes d’énergie, de stockage et/ou de calcul, la solution de sécurité utilisée doit être légère. Cette thèse est divisée en deux parties. Dans la première, nous étudierons en détail l’évolution des noeuds RFID actifs et leur sécurité. Nous présenterons ensuite, dans la seconde partie, un nouveau protocole sans serveur permettant à des MDC (collecteurs de données mobiles), par exemple des drones, de collecter en toute sécurité des données provenant de noeuds RFID actifs mobiles et statiques afin de les transmettre ultérieurement à un tiers autorisé. L’ensemble de la solution proposée garantit la confidentialité des données à chaque étape (de la phase de mesure, avant la collecte des données par le MDC, une fois les données collectées par le MDC et lors de la livraison finale), tout en satisfaisant les exigences de faible consommation des ressources (calcul, mémoire, etc.) des entités impliquées. Pour évaluer l’adéquation du protocole aux exigences de performance, nous l’implémenterons sur les dispositifs de sécurité les plus limités en ressources c’est-à-dire à base de processeur de cartes à puce pour prouver qu’il est efficace même dans les pires conditions. De plus, pour prouver que le protocole satisfait aux exigences de sécurité, nous l’analyserons à l’aide de jeux de sécurité et également d’outils de vérification formelle : AVISPA et ProVerif
Over the 30 last years, active RFID devices have evolved from nodes dedicated to identification to autonomous nodes that, in addition, sense (from environment or other sources) and exchange data. Consequently, the range of their applications has rapidly grown from identification only to monitoring and real time localisation. In recent years, thanks to their advantages, the use of active RFID nodes for mobile data collection has attracted significant attention. However, in most scenarios, these nodes are unattended in an adverse environments, so data must be securely stored and transmitted to prevent attack by active adversaries: even if the nodes are captured, data confidentiality must be ensured. Furthermore, due to the scarce resources available to nodes in terms of energy, storage and/or computation, the used security solution has to be lightweight. This thesis is divided in two parts. In the first, we will study in details the evolution of active RFID nodes and their security. We will then, present, in the second part, a new serverless protocol to enable MDCs (Mobile Data Collectors), such as drones, to collect data from mobile and static Active RFID nodes and then deliver them later to an authorized third party. The whole solution ensures data confidentiality at each step (from the sensing phase, before data collection by the MDC, once data have been collected by MDC, and during final delivery) while fulfilling the lightweight requirements for the resource-limited entities involved. To assess the suitability of the protocol against the performance requirements, we will implement it on the most resource-constrained secure devices to prove its efficiency even in the worst conditions. In addition, to prove the protocol fulfills the security requirements, we will analyze it using security games and we will also formally verify it using the AVISPA and ProVerif tools
37

Robin, Ludovic. "Vérification formelle de protocoles basés sur de courtes chaines authentifiées." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0019/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les protocoles de sécurité modernes peuvent impliquer un participant humain de façon à ce qu'il compare ou copie de courtes chaines de caractères faisant le pont entre différents appareils. C'est par exemple le cas des protocoles basés sur une authentification à facteur multiples comme les protocoles Google 2 factor ou 3D-Secure.Cependant, de telles chaines de caractères peuvent être sujettes à des attaques par force brute. Dans cette thèse nous proposons un modèle symbolique qui inclut les capacités de l'attaquant à deviner des secrets faibles et à produire des collisions avec des fonctions de hachage dont de l'application résulte une courte chaine de caractères. Nous proposons une nouvelle procédure de décision pour analyser un protocole (restreint à un nombre borné de sessions) qui se base sur de courtes chaines de caractères. Cette procédure a été intégré dans l'outil AKISS et testé sur les protocoles du standard ISO/IEC 9798-6:2010
Modern security protocols may involve humans in order to compare or copy short strings betweendifferent devices. Multi-factor authentication protocols, such as Google 2-factor or 3D-Secure are typical examplesof such protocols. However, such short strings may be subject to brute force attacks. In this thesis we propose asymbolic model which includes attacker capabilities for both guessing short strings, and producing collisions whenshort strings result from an application of weak hash functions. We propose a new decision procedure for analyzing(a bounded number of sessions of) protocols that rely on short strings. The procedure has been integrated in theAKISS tool and tested protocols from the ISO/IEC 9798-6:2010 standard
38

Etrog, Jonathan. "Cryptanalyse linéaire et conception de protocoles d'authentification à sécurité prouvée." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse, restreinte au cadre de la cryptologie symétrique, s'intéresse à deux aspects séparés de la cryptologie : la protection des messages à l'aide d'algorithmes chiffrement et la protection de la vie privée à travers des protocoles d'authentification. La première partie concerne l'étude de la cryptanalyse linéaire et la seconde la conception de protocoles d'authentification à sécurité prouvée garantissant une forme forte d'intraçabilité. Dans la première partie, nous nous intéressons à la cryptanalyse linéaire qui bien qu'introduite au début des années 90 a connu récemment un nouvel essor dû au développement de nouvelles variantes. Nous nous sommes à la fois intéressés à son aspect pratique et théorique. Dans un premier temps, nous présentons une cryptanalyse d'une version réduite de SMS4, algorithme utilisé dans le chiffrement du WiFi chinois puis nous introduisons la cryptanalyse multilinéaire et décrivons une nouvelle forme de cryptanalyse multilinéaire. La deuxième partie concerne l'étude de protocoles d'authentification RFID respectant la vie privée. Nous définissons un modèle d'attaquant permettant de formaliser les notions de sécurité relatives à ces protocoles. Nous proposons ensuite deux protocoles réalisant chacun un compromis entre l'intraçabilité forte et la résistance aux attaques par déni de service et admettant des implantations à bas coût et établissons des preuves de sécurité dans le modèle standard pour ces deux protocoles
This Ph. D, devoted to symmetric cryptography, addresses two separate aspects of cryptology. First, the protection of messages using encryption algorithms and, second, the protection of privacy through authentication protocols. The first part concerns the study of linear cryptanalysis while the second is devoted to the design of authentication protocols with proven security. Although introduced in the early 90s, linear cryptanalysis has recently experienced a revival due to the development of new variants. We are both interested in its practical and theoretical aspects. First, we present a cryptanalysis of a reduced version of SMS4, the encryption algorithm used in WiFi in China then, second, we introduce multilinear cryptanalysis and describe a new form of multilinear cryptanalysis. The second part of the thesis concerns the study of RFID authentication protocols respecting privacy. We define a model to formalize the notions of security for these protocols. Then we propose two protocols, each one performing a compromise between strong unlinkability and resistance to denial of service attacks, which allow low-cost implementations. We establish security proofs in the standard model for these two protocols
39

La, Vinh Hoa. "Security monitoring for network protocols and applications." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL006/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sécurité informatique, aussi connue comme la cyber-sécurité, est toujours un sujet d'actualité dans la recherche en sciences informatiques. Comme les cyber-attaques grandissent de plus en plus en volume et en sophistication, la protection des systèmes ou réseaux d'information devient une tâche difficile. Les chercheurs dans la communauté de recherche prêtent une attention constante à la sécurité, en particulier ils s'orientent vers deux directions principales: (i) - la conception des infrastructures sécurisées avec des protocoles de communication sécurisés et (ii) - surveillance / supervision des systèmes ou des réseaux afin de trouver et de remédier des vulnérabilités. La dernière vérifie que tout ce qui a été conçu dans la première fonctionne correctement et en toute sécurité, ainsi détectant les violations de sécurité. Ceci étant le sujet principal de cette thèse.Cette dissertation présente un cadre de surveillance de la sécurité en tenant en compte des différents types de jeu de données d'audit y compris le trafic de réseaux et les messages échangés dans les applications. Nous proposons également des approches innovantes fondées sur l'apprentissage statistique, la théorie de l'information et de l'apprentissage automatique pour prétraiter et analyser l'entrée de données. Notre cadre est validé dans une large gamme des études de cas, y compris la surveillance des réseaux traditionnels TCP / IP (v4) (LAN, WAN, la surveillance de l'Internet), la supervision des réseaux de objets connectés utilisant la technologie 6LoWPAN (IPv6), et également, l’analyse des logs d'autres applications. Enfin, nous fournissons une étude sur la tolérance d’intrusion par conception et proposons une approche basée sur l’émulation pour détecter et tolérer l’intrusion simultanément.Dans chaque étude de cas, nous décrivons comment nous collectons les jeux de données d'audit, extrayons les attributs pertinents, traitons les données reçues et décodons leur signification de sécurité. Pour attendre ces objectifs, l'outil MMT est utilisé comme le cœur de notre approche. Nous évaluons également la performance de la solution et sa possibilité de marcher dans les systèmes “à plus grande échelle” avec des jeux de données plus volumineux
Computer security, also known as cyber-security or IT security, is always an emerging topic in computer science research. Because cyber attacks are growing in both volume and sophistication, protecting information systems or networks becomes a difficult task. Therefore, researchers in research community give an ongoing attention in security including two main directions: (i)-designing secured infrastructures with secured communication protocols and (ii)-monitoring/supervising the systems or networks in order to find and re-mediate vulnerabilities. The former assists the later by forming some additional monitoring-supporting modules. Whilst, the later verifies whether everything designed in the former is correctly and securely functioning as well as detecting security violations. This is the main topic of this thesis.This dissertation presents a security monitoring framework that takes into consideration different types of audit dataset including network traffic and application logs. We propose also some novel approaches based on supervised machine learning to pre-process and analyze the data input. Our framework is validated in a wide range of case studies including traditional TCP/IPv4 network monitoring (LAN, WAN, Internet monitoring), IoT/WSN using 6LoWPAN technology (IPv6), and other applications' logs. Last but not least, we provide a study regarding intrusion tolerance by design and propose an emulation-based approach to simultaneously detect and tolerate intrusion.In each case study, we describe how we collect the audit dataset, extract the relevant attributes, handle received data and decode their security meaning. For these goals, the tool Montimage Monitoring Tool (MMT) is used as the core of our approach. We assess also the solution's performance and its possibility to work in "larger scale" systems with more voluminous dataset
40

Ducasse, Jean-Marie. "Randonnée pédestre et en raquettes (en moyenne montagne) : proposition d'un protocole d'étude des contraintes cardio-respiratoires en situation." Bordeaux 2, 1999. http://www.theses.fr/1999BOR2M153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Saavedra, Benitez Yesica Imelda. "Nouveau mécanisme pour la sécurisation IEEE 802. 11s protocoles de routage." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de cette thèse est de fournir de nouveaux services de sécurité afin de sécuriser le routage des paquets transmis sur les WMNs. Pour atteindre cet objectif, nous effectuerons dans un premier temps un état de l’art des WMNs incluant leur architecture, leurs applications, leurs protocoles de routage, et leurs exigences de sécurité. Dans un deuxième temps nous contribuerons à cet objectif en proposant trois protocoles de routage distincts pour la sécurité et des contremesures en cas d’apparition de noeuds compromis. Ces nouveaux protocoles sécurisent les échanges de paquets contre les deux types d’attaques, interne et externe. Le premier protocole est un protocole de niveau liaison de donnée qui permet de sécuriser le routage. La conception de notre protocole de routage sécurisé, IBE-HWMP, est basée sur le protocole HWMP. HWMP est un protocole utilisé au niveau 2 (couche liaison de données). Le second protocole proposé est un procotole hybride sans fil maillé, Hybrid-Wireless-Mesh Protocol (HWMP). Notre mécanisme de surveillance, Watchdog-HWMP, est un mécanisme de prévention qui empêche les attaques contre les noeuds internes. Le troisième protocole proposé est une extension du protocole classique RA-OLSR. Nous avons proposé une signature électronique pour les messages de routage avec IBE. Dans cette thèse nous ne contribuons pas uniquement pour sécuriser le routage mais aussi pour résoudre d’autres problématiques comme l’amélioration du débit, la réduction des délais et le support de la mobilité des noeuds. Nous avons évalué l’efficacité des solutions proposées par des simulations poussées, et ce en terme de performance, de délai, et de coût en overhead de control
The aim of this thesis is to provide necessary security features in order to protect packet routing in WMNs. To achieve this goal, first of all we will carry out a detailed review of the literature in relation to WMNs, including WMN’s architecture, applications, routing protocols and security requirements. In this context, we propose three different secure routing protocols for WMNs which provide security in terms of routing, as well as countermeasures in case of compromised nodes. Our protocols are secure against both internal and external attacks. The first protocol is a data-link-layer secure protocol for routing. We base the design of our secure routing protocol IBE-HWMP on the HWMP. HWMP is a routing protocol that is employed on the second layer (Data Link Layer). The second proposed protocol is also the secure Hybrid-Wireless-Mesh Protocol (HWMP). Our Watchdog-HWMP prevents attacks on internal nodes. The third proposed protocol is an extension of the classical RA-OLSR protocol. We have proposed a digital signature of routing messages with IBE. In this thesis we not only contribute to security routing, but also to other issues such as increasing throughput, minimizing packet delay, and handling node mobility. Through extensive simulations, we evaluate the effectiveness of our proposed solutions in terms of delay and overhead control
42

Flandé, Yves. "Protocoles expérimentaux, tests d'hypothèses et transfert, en sciences, à l'école primaire." Paris 7, 2000. http://www.theses.fr/2000PA070095.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche étudie les possibilités et les difficultés rencontrées par des élèves de 9 à 11 ans face à la planification des tests d'hypothèses dans une démarche d'investigation. Elle envisage des outils facilitant l'acquisition voire le transfert des compétences mises en oeuvre, ceci pour deux classes suivies en CM1 puis CM2. Une première partie de la thèse fait état des différentes recherches en épistémologie, psychologie, pédagogie et didactique existant sur le sujet, précise les questions de recherche d'où découlent les exigences que doivent satisfaire les séquences d'apprentissage. Une deuxième partie décrit quatre séquences d'enseignement sur des thèmes différents. Au cours de leur investigation les élèves doivent émettre les hypothèses concernant la dépendance éventuelle d'un phénomène par rapport à une ou plusieurs variables, planifier les tests (il faut pur tester chaque hypothèse du type envisagé affecter au moins deux valeurs à la variable), réaliser les protocoles, observer résultats des mesures réalisées, les analyser et en déduire les conclusions par rapport à la dépendance des variables étudiées. La troisième partie synthétise les différentes données (transcripts des séances, d'entretiens - propositions écrites individuelles ou en groupe des élèves - différentes évaluations individuelles), recueillies lors des situations d'apprentissage. Elle s'intéresse aux propositions de protocoles et aux analyses, dégage plusieurs types de difficultés rencontrées par les enfants. Elle analyse l'impact des outils proposés pour les acquisitions de compétences méthodologiques et pour leurs transferts lors d'études différentes. Elle rend compte également de l'évolution individuelle de chaque élève ainsi que celles des deux classes au cours des deux années scolaires. Elle met également en évidence le rôle de l'enseignant dans la gestion de la classe (programmation des activités, propositions des situations, apports de techniques, gestion des débats. . . )
The aim of the work is to study the possibilities and difficulties encountered by pupils (9 to 11 years old) confronted to the generalisation of hypotheses within the framework of an investigation approach. It deals with teaching aids helping to acquire and even transfer to capabilities brought into play in two classes concerned i. E. 4th and 5th grades. The first part of the research work states the various researches in the fields of epistemology, psychology, general education and educational software. It also underlines the questions from which to reduce the requirements to be met with during the learning periods. A second part describes four teaching units on four different subjects. In the course of their investigation approach, pupils have to bring forward hypotheses relates to the purpose dependence of the phenomenon upon one or more factors. They also have to plan the tests (it is required that each hypothesis must be tested with at least two conditions assigned to the factor) to draw up the procedures, assess the results of the measures carried out and finally infer conclusions about the dependence of one factor upon another. The third part brings together the various data (minutes of the group sessions, individual or group proposal in a written from by pupils, individual assessments) collected during the learning periods. It stresses the interest of the procedures and analyses put forward and focuses on types of difficulties that pupils come across. It analyses the impact of the teaching aids offered in order to acquire methodological capabilities and how such aids can be used in other studies. It also assesses the evolution of each individual pupil as well as that the two classes, over the last two school years. It also emphasises the role of the teachers in the way they manage the class (how activities are planned out, situations proposed, techniques brought in and debates dealt with. . . )
43

Bassil, Carole. "SVSP (Secure Voice over IP Simple Protocole) : une solution pour la sécurisation de la voix sur IP." Paris, ENST, 2005. http://www.theses.fr/2005ENST0045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis l invention du premier téléphone par Alexandre Graham Bell en 1869, la téléphonie n a cessé d évoluer : de la commutation de circuit à la commutation par paquet, d un réseau fixe à un réseau mobile. Plusieurs architectures ont été crées où la voix est combinée aux données et à l imagerie pour être transportées sur un seul réseau data. La nature de ces réseaux ouverts a un impact sur la voix en terme de sécurité. D où le besoin imminent de sécuriser la voix tout en assurant une bonne qualité de service à la voix aussi bien dans un réseau fixe que dans un réseau mobile ou IP. Des solutions de sécurisation sont proposées pour les données. Mais des solutions partielles voire incomplètes sont proposées pour la voix. Dans un premier temps, nous définissons les besoins de la sécurisation de la téléphonie et les services de sécurité nécessaires à son déploiement. Ainsi, nous analysons la sécurité offerte par les différents réseaux offrant un service de téléphonie, à savoir la sécurité dans le réseau téléphonique traditionnel (RTC et RNIS), dans les réseaux mobiles (GSM et UMTS), et dans le réseau de données IP avec les deux architectures prépondérantes H. 323 et SIP. Ceci va nous permettre de comparer les solutions de sécurité offertes par ces architectures de téléphonie et de pouvoir aborder d une part, leur avantages et inconvénients et d autre part, les exigences qu ils ne peuvent pas satisfaire. Cette analyse nous conduit à un résultat éloquent qui est l absence d une solution de sécurité complète qui répond aux exigences de la téléphonie et qui permet d effectuer un appel sécurisé de bout en bout. Dans un second temps, nous proposons une architecture de sécurité pour une architecture de téléphonie abstraite. Cette architecture propose une nouvelle couche de service qui s'insère entre deux couches de niveaux N et N+1 du modèle de l'OSI. Ce choix permet d'assurer une transparence et une indépendance du réseau sous-jacent mais nécessite de revoir les interfaces et donc de définir une API qui s'occupe d'assurer cette transparence et l'interfaçage entre l'application de sécurité et le réseau sous-jacent. Cette architecture assure les services de sécurité et définit les politiques de sécurité nécessaires pour répondre aux exigences de la sécurisation des communications de voix. Notre proposition s'accompagne de la définition d'un protocole de sécurité que nous avons nommé SVSP pour Simple Voice Security Protocol. SVSP intègre les services de sécurité définis par cette architecture et permet la sécurisation d'un appel téléphonique de bout en bout. Des études ont été effectuées pour l'intégrer dans différentes infrastructures de téléphonie comme le réseau fixe, le réseau mobile GSM et une plate-forme de voix sur IP avec le standard H. 323. Un prototype de SVSP a été implémenté suivi d'une intégration avec SIP, le standard de voix sur IP de l'IETF
Since the invention of the first telephone by Alexander Graham Bell in 1869, network telephony technology did not stop evolving: from circuit switching to packet switching, from fixed network to wireless network. Several new architectures were created which combines the transport of voice, data and image in the same data network. The nature of these open networks has an impact on the voice in terms of security. This yields to the imminent need to secure voice communications while insuring a good quality of service to the voice as well in fixed, wireless and IP networks. Different security solutions are proposed for the data. But partial even incomplete solutions are proposed for the voice. First, we define the needs for securing the telephony and the security services required. Thus, we analyze the security offered by the different telephone networks, namely the security in the traditional telephone network (PSTN and ISDN), in the mobile networks (GSM and UMTS), and in the IP network based on the H. 323 and SIP architectures. This will allow us to compare the security solutions offered by these telephony architectures and to be able to present their advantages and limitations and the security requirements that they cannot satisfy. This analysis drives us to an eloquent result that is the absence of a complete end to end security solution that complies with the security requirements of telephony. Secondly, we propose security architecture for a unified telephony architecture. This security architecture proposes a service layer that is inserted between N and N + 1 layers of the OSI reference model. This choice provides a transparency and an independence of the underlying network but requires reviewing the interfaces and therefore the needs to define an API between the security application and the underlying network that insures transparency. This architecture provides the security services and defines necessary security policies to secure voice communications. Following the security architecture, we defined a security protocol that we named SVSP for Simple Voice Security Protocol. SVSP satisfies the security services defined by this architecture that provides a secure end-to-end phone call. Studies were carried out to integrate it in different telephony infrastructures, namely with the traditional telephone network, GSM the mobile network and with the H. 323 standard for voice over IP communications. A prototype of SVSP was implemented followed by integrating it with SIP the IETF voip standard
44

Dalverny, Elisabeth. "Mise au point d'un protocole d'essai de toxicité chronique base sur la mesure du taux intrinsèque d'accroissement de la population de Brachydanio rerio." Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude de la toxicité chronique des substances basée sur la détermination du taux intrinsèque d'accroissement des populations nécessite la connaissance des probabilités de survie et de reproduction des organismes exposés. L'application d'un test de toxicité chronique utilisant le Brachydanio rerio a été réalisée avec trois substances (le chrome, le cadmium et l'atrazine) et s'est déroulée en deux étapes: un essai sur cycle de vie complet de 130 jours pour la détermination des taux de survie et de croissance, et des âges de maturité et un essai sur cycle de vie partiel pour l'étude de la reproduction. Les résultats obtenus nous ont permis de comparer la sensibilité des différents stades de vie exposés et, en outre, de comparer la sensibilité de la méthode basée sur la mesure du taux d'accroissement avec celles qui permettent également d'évaluer la toxicité chronique des substances, à savoir: les essais portant sur les stades de vie précoce (ELS) et les essais portant sur la reproduction. La reproduction s'avère être une phase du cycle de vie très sensible, les rapports de sensibilité entre les critères déterminés sur les stades de vie précoce et la reproduction ont été établis entre 4,7 et 11,7 avec les trois substances que nous avons étudiées. Compte tenu de la forte sensibilité de la reproduction, les test ELS de 15 jours ne peuvent permettre d'appréhender la toxicité a long terme. Toutefois, pour la réalisation de tests ELS, notre étude montre qu'une durée de 15 jours est tout à fait acceptable car les effets observables n'évoluent plus au-delà de cette durée. L'essai fonde sur la détermination du taux intrinsèque d'accroissement est une méthode qui présente une bonne pertinence d'un point de vue écologique mais qui, cependant, présente un mauvais rapport effort-qualité compare aux tests ELS ou ceux portant sur la reproduction
The chronic toxicity study of substances based on the intrinsic rate of population increase require the knowledge of survival and fecundity probabilities of the tests organisms. The chronic toxicity test application using Brachydanio rerio had been performed with three substances frequently meeting in waters (chrome, cadmium and atrazine) and had been conceived in two steps: - a life cycle test lasting 130 days post fertilisation for the determination of survival, growth and maturity ages, - a partial life cycle test for the reproduction study. We have compared the different development stage sensitivity and compared the sensitivity of the different tests methods: those based on the measure of intrinsic rate of population increase with those which also permit to assess the chronic toxicity: 15-days ELS tests and tests based on the reproduction. Reproduction appeared to be the most sensitive endpoint, the sensitivity factors determined between the early life stage and reproduction are equal to 4,7 to 11,7 with the three substances studies. Thus, the 15-days ELS tests appeared as no good predictors of effect on the complete life cycle on fish. However, for the ELS test realisation, our study shows that a test duration of 15 days is acceptable because the observed effects occurred within this duration. The toxicity test based on the intrinsic rate of population increase is a good method which provides an ecological relevant way but which present a bad cost-effective factor compared with ELS tests or reproduction tests
45

Jacomme, Charlie. "Preuves de protocoles cryptographiques : méthodes symboliques et attaquants puissants." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation des protocoles de communication est omniprésente dans notre société, mais leur utilisation comporte des risques de sécurité ou d'atteinte à la vie privée. Pour réduire ces risques, il faut exiger de solides garanties, i.e. des preuves formelles, approfondies, modulaires et vérifiées par ordinateur. Toutefois, de telles preuves sont très difficiles à obtenir. Nous essayons dans cette thèse de faciliter ce processus dans le cas des protocoles cryptographiques et d'attaquants puissants. Nos contributions principales sont 1) une méthodologie d'analyse approfondies dans le cas de l'authentification multi-facteurs; 2) des résultats de composition permettant des preuves modulaires de protocoles complexes dans le modèle calculatoire; 3) l'automatisation d'étapes élémentaires de preuves calculatoires via des méthodes symboliques appliquées à des programmes probabilistes; 4) un prototype d'assistant de preuve dans le modèle de l'attaquant symbolique calculatoirement complet
The use of communication protocols has become pervasive at all levels of our society. Yet, their uses come with risks, either about the security of the system or the privacy of the user. To mitigate those risks, we must provide the protocols with strong security guarantees: we need formal, extensive, modular and machine-checked proofs. However, such proofs are very difficult to obtain in practice. In this Thesis, we strive to ease this process in the case of cryptographic protocols and powerful attackers. The four main contributions of this Thesis, all based on symbolic methods, are 1) a methodology for extensive analyses via a case study of multi-factor authentication; 2) composition results to allow modular proofs of complex protocols in the computational model; 3) symbolic methods for deciding basic proof steps in computational proofs, formulated as problems on probabilistic programs; 4) a prototype of a mechanized prover in the Computationally Complete Symbolic Attacker model
46

Nobelis, Nicolas. "Une architecture pour le transfert électronique sécurisé de document." Nice, 2008. http://www.theses.fr/2008NICE4054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Grâce à l'avènement des réseaux de télécommunications, de nombreux acteurs ont exprimé des besoins hétérogènes liés au transfert électronique sécurisé de document. Ces acteurs peuvent être professionnels (une entreprise souhaitant transmettre des plans de fabrication à un de ses fournisseurs), particuliers (un individu souhaitant partager ses photos de vacances avec un proche) ou gouvernementaux (une procédure administrative devant être envoyée au département d'une administration). L'hétérogénéité des besoins susnommés provient de la nature des documents traités, mais également des propriétés de sécurité à assurer. Afin de satisfaire ces différents besoins, de nombreux protocoles sécurisés de communication ont ainsi été développés. Néanmoins, il n'existe pas de bijection entre les protocoles et les besoins et il très souvent difficile d'associer à un besoin le protocole adéquat. Au cours de leur cycle de vie, les protocoles de communication existants peuvent être gérés (utilisés, créés et déployés) par trois rôles : l'utilisateur, le développeur de protocole et l'administrateur système. Chacun de ces derniers est confronté à un problème spécifique : Après avoir exprimé un besoin, l’utilisateur ne dispose pas de suffisamment de critères pour évaluer les protocoles candidats, et ne peut obtenir l’assurance que le protocole choisi satisfait bien le besoin exprimé. Le développeur de protocole doit faire face à des choix critiques lorsqu’il doit implémenter un nouveau protocole, particulièrement celui des bibliothèques de sécurité à utiliser. De plus, il n’existe pas de correspondance simple entre une propriété de sécurité et les outils cryptographiques, ce qui peut freiner le passage de la spécification à l’implémentation. L’administrateur système paye les conséquences des choix du développeur à travers la multiplication des bibliothèques de sécurité à déployer : chaque protocole peut ainsi être dépendant d’une librairie spécifique sans que l’administrateur ait la possibilité de remplacer, suivant le contexte, cette dépendance par une autre. Le premier objectif de nos travaux est de rechercher une solution à ces problèmes. Une approche par composition nous semble particulièrement viable : les composants logiciels permettent en effet d'isoler des fonctionnalités spécifiques à des fins de réutilisabilité et de composition. De plus, l'utilisation de tels composants permet à une application d'annoncer et de certifier certaines caractéristiques requises par ses utilisateurs. Dans le cadre de cette thèse, nous définissons la notion de composants de sécurité de haut niveau remplissant chacun une propriété de sécurité et disposant d'une interface générique permettant leur utilisation par différents protocoles et applications. Le second objectif de cette thèse est la conception de notre architecture appelée A. D. E. P. T. (Architecture pour les Documents Électroniques Plus leurs Transferts) et consacrée au transfert électronique de document. Cette architecture, paramétrée par des politiques de sécurité, tire partie des composants de sécurité de haut niveau grâce à un ou plusieurs assemblage(s) de ces composants adapté(s) aux besoins des différents rôles. Ces différents assemblages permettent d'illustrer les fonctionnalités de nos composants et de montrer leurs utilisations variées par les rôles susmentionnés
In our Information Era, various actors have expressed their needs related to electronic document transfer. These actors can be corporates (a company willing to send confidential schematics to its subcontractor), individuals (a person wishing to share his holiday pictures with his friend) or governments (an administration sending documents to another department). These needs are heterogeneous because they depend not only on the document being transferred, but also on the security properties to fulfill. To satisfy these different needs, numerous secure communication protocols have been developed. However, there is no bijection between the protocols and the needs: thus, it is difficult to associate the adequate protocol to a specific need. During their life cycles, the existing communication protocols can be managed (created, deployed, and used) by three roles, each of them having different objectives: non-expert user, protocol developer and system administrator. The first objective of this thesis is to help these roles find a solution to their problems. A component-based approach seems particularly suitable: in fact, software components allow to isolate specific functionalities for reuse and composition. Moreover, the use of such components enables applications to certify features which may be required by the users. In the context of this work, we define the notion of high level security components, each fulfilling a security property. These components have a generic interface which allows their use by various protocols and applications. The second objective of this thesis is to design an architecture named A. D. E. P. T. And dedicated to the electronic document transfer. This architecture, driven by security policies, relies on one or several assemblies of high level security components to satisfy users needs. These assemblies allow us to illustrate the functionalities of our components as well as their use by the aforementioned roles
47

Jamet, Raphaël. "Protocols and models for the security of wireless ad-hoc networks." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM039/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous intéressons à plusieurs méthodes pour améliorer la sécurité des réseaux sans fil ad-hoc. Ces réseaux, ainsi que la sous-famille des réseaux de capteurs sans fil, sont une des solutions les plus intéressantes pour de nombreux problèmes, comme par exemple la collecte de données dans une large zone, ou bien la création d'infrastructure de communication après une catastrophe. Ces réseaux sont par nature collaboratifs, ce qui les rend très vulnérables à d'éventuels attaquants. Pour les protéger, nous étudions la sécurité des protocoles conçus pour ces réseaux. Premièrement, nous proposons SR3 (pour Secure and Resilient Reputation-based Routing), un algorithme de routage sécurisé et résilient pour le routage convergent (tous-vers-un) dans les réseaux de capteurs sans fil. SR3 route ses messages selon une mesure de réputation qui est bâtie sur des informations fiables. Ce protocole garantit la confidentialité de ses données, et l'inforgeabilité de ses paquets. Nous avons prouvé formellement ces propriétés avec deux outils de vérification : Scyther et CryptoVerif. Nous avons montré expérimentalement la résilience de SR3 quand confronté à divers scénarios d'attaque, et nous avons comparé nos résultats à plusieurs algorithmes de routage de la litérature. L'évaluation a montré que la résilience et l'équité fournies par SR3 sont meilleures que celles des autres protocoles, et cette distinction est accentuée si le réseau est peu dense. De plus, et contrairement aux autres protocoles, SR3 est capable de s'auto-adapter aux changements de comportement des attaquants afin d'assurer une qualité de service satisfaisante. Les analyses de la sécurité des protocoles de routage reposent presque toujourssur des simulations, qui évaluent la capacité du protocole à délivrer ses messages aux bons noeuds. Il existe plusieurs définitions différentes pour concevoir la sécurité du routage, mais à notre connaissance, elles considèrent seulement les protocoles de source routing, où les routes sont déterminées avant que le message ne soit envoyé. Nous proposons la notion de corruptibilité, une définition calculatoire et quantitative pour la sécurité du routage basée sur la capacité d'un attaquant à altérer les routes empruntées par un message. Nous illustrons ensuite ces définitions par plusieurs analyses de protocoles. Enfin, nous étudions les systèmes de détection d'intrusions (IDS) pour réseaux sans fil ad-hoc, et plus spécifiquement les sources de données utilisées pour leurs mécanismes de décision. Nous classifions celles-ci en fonction du niveau de coopération qu'elles requièrent, et en fonction de l'origine de leurs données. Nous proposons ensuite InDICE, un outil d'aide à la décision qui étant donné un IDS, permet de découvrir automatiquement quelles attaques seront indétectables par les sources de données qu'utilise cet IDS. Enfin, nous utilisons cet outil pour découvrir deux vulnérabilités dans des IDS de la littérature
In this document, we focus on ways of increasing the security of wireless ad-hoc networks. These networks, and more specifically wireless sensor networks, look increasingly like the right answer to a lot of problem, such as data collection over a large area, or providing emergency network infrastructure after a disaster. They are also inherently exposed to malicious intents due to their collaborative nature. In order to protect them, we focus on the security aspects of the protocols built for these networks. We first propose a Secure and Resilient Reputation-based Routing protocol, called SR3. This protocol routes messages according to a reputation metric built using only trusted information. This protocol achieves data confidentiality and data packet unforgeability, which we prove formally using two verification tools: CryptoVerif and Scyther. We experimentally show the resiliency of SR3 against various attack scenarios, and we compared our results to several routing algorithms of the literature. This evaluation shows that both the resiliency and fairness accomplished by SR3 are better than for those others protocols, especially when the network is sparse. Moreover, and unlike previous solutions, if the compromised nodes behavior changes, then SR3 will self-adapt in order to ensure an acceptable quality of service. Analyses of routing protocols security are nearly always supported by simulations, which often evaluate the ability to deliver messages to a given destination. Several competing definitions for secure routing exist, but to our knowledge, they only address source routing protocols. We propose the notion of incorruptibility, a quantitative computational definition for routing security based on the attacker's ability to alter the routes used by messages. These definitions are then illustrated with several routing algorithms. Finally, we study Intrusion Detection Systems (IDS) for WANET, and more specifically their inputs. These systems provide a supplementary layer of defenses for WANETs, and they are able to easily detect attacks who are complicated for the network protocols. We classify the different inputs used by the decision process of these IDS, according to their level of required cooperation, and the source of their data. We then propose the InDICE tool, a decision aid which, given an IDS, allows automated discovery of undetectable attacks according to the inputs used by that IDS. In the end, we apply our framework to discover weaknesses in two existing IDS
48

Fu, Yulong. "Sécurité Vérification d’implémentation de protocole." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En ce qui concerne le développement des technologies informatique, les systèmes et les réseaux informatiques sont intensément utilisés dans la vie quotidienne. Ces systèmes sont responsables de nombreuses tâches essentielles pour notre communauté sociale (par exemple, système de traitement médical, E-Commerce, Système d'avion, système de vaisseau spatial, etc.). Quand ces systèmes cessent de fonctionner ou sont corrompus, les pertes économiques peuvent atteindre des sommes inacceptables. Pour éviter ces situations, les systèmes doivent être sécurisés avant leur installation. Alors que la plupart de ces systèmes sont mis en œuvre à partir de spécifications des protocoles, les problèmes de vérification de la sécurité de systèmes concrets renvient à vérifier la sécurité de l'implémentation de ces protocoles. Dans cette thèse, nous nous concentrons sur les méthodes de vérification de la sécurité des implémentations des protocoles et nous sommes intéressés à deux principaux types d'attaques sur les réseaux : Déni de service (DoS) et attaque de Protocol d’authentification. Nous étudions les caractéristiques de ces attaques et les méthodes de vérification formelles. Puis nous proposons modèle étendu de IOLTS et les algorithmes correspondants à la génération de les cas de test pour la vérification de sécurité automatique. Afin d'éviter les explosions d'état possibles, nous formalisons également les expériences de sécurité du testeur comme le « Objectif de Sécurité » pour contrôler la génération de test sur la volée. Parallèlement, une méthode d'analyse basée sur le modèle pour la Systèmes de Détection d'intrusion Anomalie (Anomaly IDS) est également proposée dans cette thèse, ce qui peut améliorer les capacités de détecter des anomalies de l'IDS. Ces méthodes de vérification proposées sont mises en évidence par l'étude de RADIUS protocole et un outil intégré de graphique est également proposé pour facilement les opérations de la génération de test
Regarding the development of computer technologies, computer systems have been deeply used in our daily life. Those systems have become the foundation of our modern information society. Some of them even take responsibilities for many essential and sensitive tasks (e.g., Medical Treatment System, E-Commerce, Airplane System, Spaceship System, etc.). Once those systems are executed with problems, the loss on the economy may reach an unacceptable number. In order to avoid these disappointing situations, the security of the current systems needs to be verified before their installations. While, most of the systems are implemented from protocol specifications, the problems of verifying the security of concrete system can be transformed to verify the security of protocol implementation. In this thesis, we focus on the security verification methods of protocol implementations and we are interested with two main types of network attacks: Denis-of-Services (DoS) attacks and Protocol Authentication attacks. We investigate the features of these attacks and the existed formal verification methods and propose two extended models of IOLTS and the corresponding algorithms to generate the security verification test cases automatically. In order to avoid the possible state explosions, we also formalize the security experiences of the tester as Security Objective to control the test generation on-the-fly. Meanwhile, a modeled based Anomaly Intrusion Detection Systems (IDS) analysis method is also proposed in this thesis, which can enhance the detect abilities of Anomaly IDS. These proposed verification methods are demonstrated with the case study of RADIUS protocol and an integrated GUI tool is also proposed to simply the operations of test generation
49

SIFFERT, ANNE-ELISABETH. "Modes de transfert des radionucleides aux vegetaux et a l'homme ; mise au point d'un protocole de mesure de la radioactivite au niveau des plantes." Strasbourg 1, 1990. http://www.theses.fr/1990STR15064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Cheval, Vincent. "Automatic verification of cryptographic protocols : privacy-type properties." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00861389.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Many tools have been developed to automatically verify security properties on cryptographic protocols. But until recently, most tools focused on trace properties (or reachability properties) such as authentication and secrecy. However, many security properties cannot be expressed as trace properties, but can be written as equivalence properties. Privacy, unlinkability, and strong secrecy are typical examples of equivalence properties. Intuitively, two protocols P, Q are equivalent if an adversary can not distinguish P from Q by interacting with these processes. In the literature, several notions of equivalence were studied, e.g. trace equivalence or a stronger one, observational equivalence. However, it is often very difficult to prove by hand any of these equivalences, hence the need for efficient and automatic tools. We first worked on an approach that rely on constraint solving techniques and that is well suited for bounded number of sessions. We provided a new algorithm for deciding the trace equivalence between processes that may contain negative tests and non-determinism. We applied our results on concrete examples such as anonymity of the Private Authentication protocol and the E-passport protocol. We also investigated composition results. More precisely, we focused on parallel composition under shared secrets. We showed that under certain conditions on the protocols, the privacy type properties are preserved under parallel composition and under shared secrets. We applied our result on the e-passport protocol. At last this work presents an extension of the automatic protocol verifier ProVerif in order to prove more observational equivalences. This extension have been implemented in ProVerif and allows us to automatically prove anonymity in the private authentication protocol.

До бібліографії