To see the other types of publications on this topic, follow the link: Sécurité informatique.

Dissertations / Theses on the topic 'Sécurité informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sécurité informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Full text
Abstract:
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.
Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.
Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
APA, Harvard, Vancouver, ISO, and other styles
2

Sadde, Gérald. "Sécurité logicielle des systèmes informatiques : aspects pénaux et civils." Montpellier 1, 2003. http://www.theses.fr/2003MON10019.

Full text
Abstract:
De l'instant de l'attaque logicielle contre le système, jusqu'aux conséquences macro-économiques induites, nous suivrons la propagation du dommage et ses implications juridiques en matière d'obligations et de responsabilité. Cela nous donnera tout d'abord l'occasion d'aborder l'aspect répressif de la sécurité au travers de la sanction pénale de l'acte. Mais tout autant nous nous intéresserons aux relations contractuelles qui vont naître de la prévention du dommage, au travers des mesures prises par la victime, le maître du système, pour protéger ses intérêts. Nous envisagerons les recours qui s'offrent non seulement à ce dernier mais aussi aux utilisateurs du système attaqué, qui subiront parfois un préjudice du fait d'une atteinte, à leurs biens, à la qualité d'un service, ou à leur vie privée. Enfin la sécurité informatique est à nos yeux un impératif d'ordre public et ce sont les dommages potentiels à l'économie dans son ensemble qui concluront donc cette étude.
APA, Harvard, Vancouver, ISO, and other styles
3

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0063/document.

Full text
Abstract:
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
APA, Harvard, Vancouver, ISO, and other styles
4

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0063.

Full text
Abstract:
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
APA, Harvard, Vancouver, ISO, and other styles
5

Vache, Marconato Geraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités." Phd thesis, INSA de Toulouse, 2009. http://tel.archives-ouvertes.fr/tel-00462530.

Full text
Abstract:
Cette thèse présente une nouvelle approche pour l'évaluation quantitative de la sécurité des systèmes informatiques. L'objectif de ces travaux est de définir et d'évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l'environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l'état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l'administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d'exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d'obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d'étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l'évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système.
APA, Harvard, Vancouver, ISO, and other styles
6

Vache, Géraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000356/.

Full text
Abstract:
Cette thèse présente une nouvelle approche pour l’évaluation quantitative de la sécurité des systèmes informatiques. L’objectif de ces travaux est de définir et d’évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l’environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l’état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l’administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d’exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d’obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d’étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l’évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système
This thesis presents a new approach for quantitative security evaluation for computer systems. The main objective of this work is to define and evaluate several quantitative measures. These measures are probabilistic and aim at quantifying the environment influence on the computer system security considering vulnerabilities. Initially, we identified the three factors that have a high influence on system state: 1) the vulnerability life cycle, 2) the attacker behaviour and 3) the administrator behaviour. We studied these three factors and their interdependencies and distinguished two main scenarios based on nature of vulnerability discovery, i. E. Malicious or non malicious. This step allowed us to identify the different states of the system considering the vulnerability exploitation process and to define four measures relating to the states of the system: vulnerable, exposed, compromised, patched and secure. To evaluate these measures, we modelled the process of system compromising by vulnerability exploitation. Afterwards, we characterized the vulnerability life cycle events quantitatively, using real data from a vulnerability database, in order to assign realistic values to the parameters of the models. The simulation of these models enabled to obtain the values of the four measures we had defined. Finally, we studied how to extend the modelling to consider several vulnerabilities. So, this approach allows the evaluation of measures quantifying the influences of several factors on the system security
APA, Harvard, Vancouver, ISO, and other styles
7

Guyeux, Christophe. "Désordre des itérations chaotiques et leur utilité en sécurité informatique." Besançon, 2010. http://www.theses.fr/2010BESA2019.

Full text
Abstract:
Les itérations chaotiques, un outil issu des mathématiques discrètes, sont pour la première fois étudiées pour obtenir de la divergence et du désordre. Après avoir utilisé les mathématiques discrètes pour en déduire des situations de non convergence, ces itérations sont modélisées sous la forme d’un système dynamique et sont étudiées topologiquement dans le cadre de la théorie mathématique du chaos. Nous prouvons que leur adjectif « chaotique » a été bien choisi : ces itérations sont du chaos aux sens de Devaney, Li-Yorke, l’expansivité, l’entropie topologique et l’exposant de Lyapunov, etc. Ces propriétés ayant été établies pour une topologie autre que la topologie de l’ordre, les conséquences de ce choix sont discutées. Nous montrons alors que ces itérations chaotiques peuvent être portées telles quelles sur ordinateur, sans perte de propriétés, et qu’il est possible de contourner le problème de la finitude des ordinateurs pour obtenir des programmes aux comportements prouvés chaotiques selon Devaney, etc. Cette manière de faire est respectée pour générer un algorithme de tatouage numérique et une fonction de hachage chaotiques au sens le plus fort qui soit. À chaque fois, l’intérêt d’être dans le cadre de la théorie mathématique du chaos est justifié, les propriétés à respecter sont choisies suivant les objectifs visés, et l’objet ainsi construit est évalué. Une notion de sécurité pour la stéganographie est introduite, pour combler l’absence d’outil permettant d’estimer la résistance d’un schéma de dissimulation d’information face à certaines catégories d’attaques. Enfin, deux solutions au problème de l’agrégation sécurisée des données dans les réseaux de capteurs sans fil sont proposées
For the first time, the divergence and disorder properties of “chaotic iterations”, a tool taken from the discrete mathematics domain, are studied. After having used discrete mathematics to deduce situations of non-convergence, these iterations are modeled as a dynamical system and are topologically studied into the framework of the mathematical theory of chaos. We prove that their adjective “chaotic” is well chosen : these iterations are chaotic, according to the definitions of Devaney, Li-Yorke, expansivity, topological entropy, Lyapunov exponent, and so on. These properties have been established for a topology different from the order topology, thus the consequences of this choice are discussed. We show that these chaotic iterations can be computed without any loss of properties, and that it is possible to circumvent the problem of the finiteness of computers to obtain programs that are proven to be chaotic according to Devaney, etc. The procedure proposed in this document is followed to generate a digital watermarking algorithm and a hash function, which are chaotic according to the strongest possible sense. At each time, the advantages of being chaotic as defined in the mathematical theory of chaos is justified, the properties to check are chosen depending on the objectives to reach, and the programs are evaluated. A novel notion of security for steganography is introduced, to address the lack of tool for estimating the strength of an information hiding scheme against certain types of attacks. Finally, two solutions to the problem of secure data aggregation in wireless sensor networks are proposed
APA, Harvard, Vancouver, ISO, and other styles
8

Antakly, Dimitri. "Apprentissage et vérification statistique pour la sécurité." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4015.

Full text
Abstract:
Les principaux objectifs poursuivis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de modèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphical Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme représentatif du système sous-jacent. Ce modèle est ensuite utilisé pour vérifier une propriété de sécurité. Si la propriété n’est pas vérifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre approche et nous adaptons une mesure de distance entre Graphical Event Models. La mesure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des séries d’expériences sur des données de synthèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés
The main objective of this thesis is to combine the advantages of probabilistic graphical model learning and formal verification in order to build a novel strategy for security assessments. The second objective is to assess the security of a given system by verifying whether it satisfies given properties and, if not, how far is it from satisfying them. We are interested in performing formal verification of this system based on event sequences collected from its execution. Consequently, we propose a model-based approach where a Recursive Timescale Graphical Event Model (RTGEM), learned from the event streams, is considered to be representative of the underlying system. This model is then used to check a security property. If the property is not verified, we propose a search methodology to find another close model that satisfies it. We discuss and justify the different techniques we use in our approach and we adapt a distance measure between Graphical Event Models. The distance measure between the learned "fittest" model and the found proximal secure model gives an insight on how far our real system is from verifying the given property. For the sake of completeness, we propose series of experiments on synthetic data allowing to provide experimental evidence that we can attain the desired goals
APA, Harvard, Vancouver, ISO, and other styles
9

Cormier, Alexandre. "Modélisaton et sécurité des réseaux." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/25012/25012.pdf.

Full text
Abstract:
L’avènement d’Internet révolutionne l’accès à l’information, mais contribue également à l’essor de nouveaux services, notamment le commerce électronique, à l’allègement de la bureaucratie et à l’arrivée d’une multitude de e-services. Or, le développement de cette technologie de l’information s’est accompagné d’une panoplie de problématiques. Parmi celles-ci, les plus inquiétantes ont trait à la sécurité puisqu’elles mettent en péril le bon fonctionnement de ces services. Le présent mémoire approfondit ces problématiques de sécurité selon une approche formelle : les algèbres de processus. Dans un premier temps, le fruit de la recherche sur les failles de sécurité réseau de niveau deux et trois de la couche TCP/IP et d’une étude comparative de l’expressivité des principales algèbres de processus est présenté. Dans un second temps, les caractéristiques souhaitées d’une algèbre de modélisation de réseau sont mises en exergue et sont intégrées dans la syntaxe et la sémantique d’une nouvelle algèbre. Finalement, une nouvelle algèbre de processus pour la modélisation de réseau, Netcal, ainsi que les principes d’un système de détection de failles d’architecture et de configuration de réseau sont explicités.
APA, Harvard, Vancouver, ISO, and other styles
10

Ben, Ghorbel Meriam. "Administration décentralisée des politiques de sécurité." Télécom Bretagne, 2009. http://www.theses.fr/2009TELB0101.

Full text
Abstract:
La délégation est une pratique très courante permettant le partage des responsabilités et des privilèges. Elle permet une plus grande collaboration entre les utilisateurs et assure la continuité du travail même en cas d'absence. D'un point de vue sécurité, elle permet d'éviter les mauvaises pratiques, comme le partage de mots de passe. La délégation permet aussi d'alléger la tâche d'administration, puisque les utilisateurs peuvent adapter la politique de sécurité à leurs besoins, sans pour autant avoir recours à l'administrateur sécurité à chaque fois. Il est donc primordial de mettre en oeuvre dans les systèmes de contrôle d'accès, les moyens nécessaires à l'expression des exigences relatives à la délégation, appelé aussi administration décentralisée. Le but de cette thèse est d'introduire une nouvelle approche pour gérer ce genre d'exigences. Notre objectif étant de remédier aux limitations des modèles existants, qui ne permettent pas de prendre en compte les différents besoins de la délégation, et de proposer un modèle plus expressif basé sur le formalisme OrBAC (Organization Based Access Control). Nous avons proposé un modèle unifié pour gérer les exigences de l'administration et de la délégation. Nous avons traité plusieurs niveaux de délégation, comme la délégation de rôles, de permissions et aussi d'obligations. Notre modèle se base sur une politique contextuelle permettant la gestion des différentes contraintes de délégation, et sur une approche orientée objets permettant de faciliter la gestion des différentes formes de révocation. La délégation et la révocation des privilèges impliquent une mise à jour de la politique de sécurité, ce qui peut engendrer des conflits. Pour conserver la cohérence de la politique, nous avons proposé une stratégie permettant de détecter et de résoudre ce genre de conflits. En dernier lieu, nous avons proposé un prototype qui étend l'outil existant MotOrBAC pour implémenter notre approche.
APA, Harvard, Vancouver, ISO, and other styles
11

Ben, Ghorbel Meriam. "Administration décentralisée des politiques de sécurité." Télécom Bretagne, 2009. http://www.theses.fr/2008TELB0101.

Full text
Abstract:
La délégation est une pratique très courante permettant le partage des responsabilités et des privilèges. Elle permet une plus grande collaboration entre les utilisateurs et assure la continuité du travail même en cas d'absence. D'un point de vue sécurité, elle permet d'éviter les mauvaises pratiques, comme le partage de mots de passe. La délégation permet aussi d'alléger la tâche d'administration, puisque les utilisateurs peuvent adapter la politique de sécurité à leurs besoins, sans pour autant avoir recours à l'administrateur sécurité à chaque fois. Il est donc primordial de mettre en oeuvre dans les systèmes de contrôle d'accès, les moyens nécessaires à l'expression des exigences relatives à la délégation, appelé aussi administration décentralisée. Le but de cette thèse est d'introduire une nouvelle approche pour gérer ce genre d'exigences. Notre objectif étant de remédier aux limitations des modèles existants, qui ne permettent pas de prendre en compte les différents besoins de la délégation, et de proposer un modèle plus expressif basé sur le formalisme OrBAC (Organization Based Access Control). Nous avons proposé un modèle unifié pour gérer les exigences de l'administration et de la délégation. Nous avons traité plusieurs niveaux de délégation, comme la délégation de rôles, de permissions et aussi d'obligations. Notre modèle se base sur une politique contextuelle permettant la gestion des différentes contraintes de délégation, et sur une approche orientée objets permettant de faciliter la gestion des différentes formes de révocation. La délégation et la révocation des privilèges impliquent une mise à jour de la politique de sécurité, ce qui peut engendrer des conflits. Pour conserver la cohérence de la politique, nous avons proposé une stratégie permettant de détecter et de résoudre ce genre de conflits. En dernier lieu, nous avons proposé un prototype qui étend l'outil existant MotOrBAC pour implémenter notre approche.
APA, Harvard, Vancouver, ISO, and other styles
12

Agosti, Pascal. "La signature : de la sécurité juridique à la sécurité technique." Montpellier 1, 2003. http://www.theses.fr/2003MON10012.

Full text
Abstract:
La confiance, nécessaire à l'essor du commerce électronique, repose sur la sécurité du monde électronique : la certitude de l'identité des interlocuteurs et de l'intégrité d'un écrit électronique en est une condition essentielle. Ces exigences ont été intégrées législativement en droit français. La signature électronique est l'élément central du nouveau dispositif probatoire et doit permettre d'identifier l'auteur de l'acte et d'en manifester le consentement. Certains procédés de signature électronique permettent d'assurer l'intégrité du contenu de l'acte électronique mais la fonction d'identification est assuré par un tiers : le Prestataire de Services de Certification Electronique, en charge d'assurer un lien entre le signataire et le certificat électronique d'identité. Ses obligations essentielles ont trait à son cycle de vie. Sa responsabilité civile à l'égard du titulaire de certificat ou du tiers vérificateur dépend d'un manquement à celles-ci et du caractère qualifié de ce certificat. Sa responsabilité pénale devra également être lue au regard des règles préexistantes en matière de cryptologie ou de protection des données personnelles.
APA, Harvard, Vancouver, ISO, and other styles
13

Clavier, Christophe. "De la sécurité physique des crypto-systèmes embarqués." Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0028.

Full text
Abstract:
Dans un monde défiant, l'augmentation du nombre et de la diversité des applications numériques ont rendu nécessaire l'existence d'un objet pratique intégrant les fonctions cryptographiques requises pour les besoins quotidiens de sécurité des transactions, de confidentialité des échanges, d'identification du porteur ou encore d'authentification pour l'accès à un service. Parmi les dispositifs cryptographiques embarqués aptes à proposer ces fonctionnalités, la carte à puce est certainement le plus utilisé de nos jours. Sa portabilité (un porte-feuille peut en contenir une dizaine) et sa capacité à protéger les données et programmes qu'elle contient contre les attaques intrusives, lui confèrent naturellement sa fonction essentielle de ``bunker'' pour le stockage de clés et l'exécution d'algorithmes cryptographiques dans les usages mobiles nécessitant un haut degré de sécurité. Évidemment nécessaire, la conception de schémas cryptographiques mathématiquement robustes, voire prouvés sûrs dans certains modèles, s'est malgré tout révélée insuffisante depuis la publication en 1996 des premières attaques physiques. Exploitant des vulnérabilités liées à la mise en oeuvre concrète des routines de sécurité et à leur implémentation, ces menaces comprennent l'analyse de canaux auxiliaires permettant d'obtenir de l'information sur l'état interne d'un processus, et l'exploitation de fautes provoquées ouvrant la voie à certaines cryptanalyses autrement impossibles. Cette thèse présente une série de travaux de recherche dans le domaine de la sécurité physique des crypto-systèmes embarqués. Deux parties de ce document sont consacrées à la description de certaines attaques et à l'étude de l'efficacité de possibles contre-mesures. Une troisième partie aborde le domaine particulier, et encore très peu exploré, de l'applicabilité des attaques physiques dans le cas où la fonction cryptographique considérée est en grande partie, voire totalement, inconnue de l'adversaire
In a world full of threats, the development of widespread digital applications has led to the need for a practical device containing cryptographic functions that provide the everyday needs for secure transactions, confidentiality of communications, identification of the subject or authentication for access to a particular service. Among the cryptographic embedded devices ensuring these functionalities, smart cards are certainly the most widely used. Their portability (a wallet may easily contain a dozen) and their ability to protect its data and programs against intruders, make it as the ideal ``bunker'' for key storage and the execution of cryptographic functions during mobile usage requiring a high level of security. Whilst the design of mathematically robust (or even proven secure in some models) cryptographic schemes is an obvious requirement, it is apparently insufficient in the light of the first physical attacks that were published in 1996. Taking advantage of weaknesses related to the basic implementation of security routines, these threats include side-channel analysis which obtains information about the internal state of the process, and the exploitation of induced faults allowing certain cryptanalysis to be performed which otherwise would not have been possible. This thesis presents a series of research works covering the physical security of embedded cryptosystems. Two parts of this document are dedicated to the description of some attacks and to a study of the efficiency of conceivable countermeasures. A third part deals with that particular and still mainly unexplored area which considers the applicability of physical attacks when the cryptographic function is, partly or totally, unknown by the adversary
APA, Harvard, Vancouver, ISO, and other styles
14

Mendy, Norbert Lucien. "Les attaques et la sécurité des systèmes informatiques." Paris 8, 2006. http://www.theses.fr/2006PA082735.

Full text
Abstract:
Le piratage informatique est apparu avec les premiers micro-ordinateurs vers 1980 et depuis n'a cessé de s'amplifier. Au début, cette pratique était essentiellement individuelle et ludique. Elle est désormais principalement constituée par les activités des personnes qui, individuellement ou en groupe, avec des motivations très diverses, piratent les ordinateurs des autres. Aujourd'hui, l'explosion des moyens de communications électroniques fait que la sécurité des données concerne sans cesse de nouvelles populations. Cette thèse examine dans un premier temps, d’un point de vue technique et sociologique, les méthodes et procédures d’attaques et de défense en matière de piratage informatique. Dans un second temps, elle expose une théorisation de ces mécanismes d’attaques et de défense, avant de proposer une nouvelle conception de la sécurité qui n’est plus seulement centrée sur des moyens techniques mais également sur la prise en compte de la dimension sociale des attaques et de défense
Hacking activities appeared around 1980 with first personal computers and since did not stop developing. At the beginning, this practice was primarily individual and playful. Now it is mainly made up by the activities of groups, with very various motivations. Today, due to the development of electronic means of communication, data security concerns a wider public. This thesis examines initially, from a technical and sociological point of view, attacks and defense mechanisms, and proposes a new concept of the security which is not only any centered on technical solutions but also takes in consideration the social dimension of the problem
APA, Harvard, Vancouver, ISO, and other styles
15

Bascou, Jean-Jacques. "Contribution à la sécurité des systèmes : une méthodologie d'authentification adaptative." Toulouse 3, 1996. http://www.theses.fr/1996TOU30253.

Full text
Abstract:
Les mecanismes de protection les plus repandus actuellement sur les systemes d'information proposent certaines formes de barrages ne pouvant etre franchis que par des utilisateurs autorises (mots de passe) dans le cas ou ces filtres sont franchis, la plupart des systemes deviennent completement accessibles et a la merci de l'intrus. L'idee directrice de notre travail est d'apporter un complement aux mecanismes d'authentification traditionnels. Ce complement n'a aucunement la pretention d'etre infaillible, mais il permet de generer un facteur de risque dont l'effet peut etre particulierement dissuasif. Notre travail a porte sur l'etude d'une methode de conception d'un outil permettant de confirmer periodiquement l'authenticite d'un sujet agissant sur un systeme d'information donne. Ce complement d'authentification s'exerce apres le passage des mecanismes de securite traditionnels. Cette authentification doit s'effectuer de maniere transparente pour le sujet et peut s'apparenter a une verification comportementale. Le comportement du sujet controle doit correspondre dans une certaine mesure au comportement attendu. Une methode de decomposition arborescente d'un probleme de securite complexe en sous problemes a ete definie. Cette methode permet de resoudre une requete d'authentification en resolvant un certain nombre de sous requetes dont l'equivalence avec la premiere est quantifiee par une approche probabiliste. Les feuilles de l'arborescence representent des requetes fondamentales dont la complexite de resolution peut etre variable. Pour la resolution de requetes fondamentales complexes, nous proposons une strategie de choix de parametres mesurables dont la correlation entre eux est une consequence de l'authenticite du sujet etudie. Des resultats d'experiences sont exposes ensuite. Une premiere experience evoque la conception d'un systeme d'authentification dont le but est de limiter les fraudes bancaires dues a une utilisation illicite des cartes de paiement. Une deuxieme experience concerne l'etude de cas d'un utilisateur de systeme unix dont l'authenticite peut etre confirmee par l'analyse de la vitesse de frappe de son mot de passe par un perceptron, ainsi que par les commandes qu'il utilise
APA, Harvard, Vancouver, ISO, and other styles
16

Aissaoui, Mehrez Hassane. "Sécurité pour les réseaux du futur : gestion sécurisée des identités." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066606.

Full text
Abstract:
Aujourd'hui, l'Internet change radicalement nos habitudes, avec l'arrivée massive du nomadisme, l'internet des objets, l'utilisation croissante de l'informatique en grille, les services Web, les réseaux sociaux et l'émergence de nouvelles approches dans ces dernières années. La virtualisation des infrastructures informatiques et le Cloud Computing ont particulièrement, permis de définir des nouveaux paradigmes, appelés X as a Service (XaaS), introduisant ainsi une rupture assez franche avec les modèles traditionnels, qui sont perçus comme une étape préparatoire vers l'Internet du Futur. En effet, la mise en œuvre de ces paradigmes, permet de mutualiser et de réorganiser le système informatique de manière différente, de dématérialiser les infrastructures physiques, de déporter les systèmes ou les applications sur des conteneurs virtuels distants. Par conséquent, l'architecture globale de l'Internet doit évoluer, en s'appuyant fortement sur ces nouvelles approches, en particulier, le Cloud Computing et la virtualisation. Malheureusement, comme toute technologie nouvelle, elle crée de nouveaux risques, qui viennent se greffer aux problèmes traditionnels : la séparation des privilèges, la gestion des accès, la gestion de l'identité, les failles des logiciels de virtualisation, l'isolation des machines virtuelles (VM), la protection des données personnelles, la vie privée, la réversibilité pendant l'externalisation (Outsourcing), etc. Les services basés sur les Clouds requièrent des fonctions de collaboration inter-fonctionnelles sécurisées ainsi que des systèmes de protection contre l'utilisation abusive des ressources. Ces systèmes doivent être équilibrés de façon raisonnable avec les besoins de confidentialité, d’intégrité, de protection de la vie privée des utilisateurs. Ils doivent permettre l’authentification des utilisateurs sans révéler des informations sur leur identité. Ainsi, une offre de services personnalisés aux clients dans un environnement virtuel et/ou transorganisationnel, en utilisant des mécanismes de sécurité adaptés à des infrastructures traditionnelles, peut prendre une dimension très complexe dans le modèle Cloud Computing, et peut constituer des défis à soulever pour les fournisseurs de ces services. Parmi ces défis à résoudre, la gestion d’identités des ressources, qui constitue un élément crucial pour authentifier les services à consommer, minimiser le risque d’accès frauduleux à des données personnelles, qui peut conduire à des conséquences désastreuses pour une entreprise ou un client. Les solutions existantes sont insuffisantes pour répondre aux défis soulevés par ces nouvelles approches. La mise en œuvre de ces modèles et ces outils posent des défis sécuritaires à la fois d’ordre organisationnel, architectural et protocolaire, pour garantir à chaque client des niveaux de sécurité. Ces niveaux doivent être identifiés pour guider les choix architecturaux et techniques à prendre, pour répondre en particulier aux exigences (LoA : Level of Assurance) et (LoT : Level of Trust), qu’un fournisseur de Cloud doit mettre en place pour garantir et protéger ses ressources. En effet, ces verrous et ces défis sécuritaires vont être relevés dans ce travail de recherche qui se situe dans le cadre du projet sécurité pour les réseaux du futur (SecFuNet : Security for Future Networks). C’est un projet collaboratif entre l’Europe et le Brésil, qui implique neuf partenaires européens répartis sur (la France, la Pologne, l'Allemagne et le Portugal) et 7 partenaires académiques brésiliens. Ce projet a pour ambition de proposer une nouvelle infrastructure de sécurité générale pour la communication des informations des utilisateurs sur Internet. L’objectif principal est de concevoir et développer une nouvelle architecture de sécurité cohérente pour les réseaux virtuels
Today, the Internet is changing radically our habits, especially with the massive influx of the nomadic techniques, the Internet of objects, the growing use of grid computing, wireless networks and the emergence of new approaches in recent years. In particular, the virtualization of the computing infrastructures, which allowed defining a new model called Cloud Computing, introducing an enough frank breakdown with the traditional models, can be perceived as a preparatory stage towards the Internet of future.The implementation of these approaches allows, in a different way : mutualization and organization of the computer system. It allows to dematerialize the physical infrastructures and to deport applications on distant containers. Therefore, the global architecture of Internet should be evolved. It will rely strongly on these new approaches and in particular, Cloud Computing and virtualization. However, no system is infallible especially if resources are distributed and mutualized. They raise a number of problems and involve directly security issues, which remain one of the main barriers to the adoption of these technologies.Like any new technology, Cloud Computing and virtualization create new risks, which come to graft to traditional threats of the outsourcing management of the privilege separation, the identity and accesses management, the robustness of the virtualization software, the virtual machine isolation, the personal data protection, reversibility, privacy... The traditional Internet architecture cannot provide the adequate solutions to the challenges raised by these new approaches: mobility, flexibility, security requirements, reliability and robustness. Thus, a research project (SecFuNet : Security For Future Networks) was validated by the European Commission, to provide some answers, to make a state of the art of these security mechanisms and a comprehensive study of orchestration and integration techniques based on protection components within overall security architecture
APA, Harvard, Vancouver, ISO, and other styles
17

Hourdin, Vincent. "Contexte et sécurité dans les intergiciels d'informatique ambiante." Nice, 2010. http://www.theses.fr/2010NICE4076.

Full text
Abstract:
En informatique ambiante, le contexte joue un rôle capital. Les applications informatiques étendent leurs interactions avec 'environnement: de nouvelles entrées et sorties sont utilisées, telles que des capteurs et d'autres dispositifs mobiles d'interaction avec l'environnement réel et physique. Les intergiciels, créés pour masquer la complexité des couches inférieures en informatique distribuée, se voient alors chargés de nouvelles préoccupations, comme la prise en compte du contexte, l'adaptation des applications ou la sécurité. Une représentation en couches intergicielles de ces préoccupations ne permet pas d'exprimer toutes leurs interdépendances. En informatique ambiante, la distribution est nécessaire pour obtenir les informations contextuelles, mais il est aussi nécessaire de prendre en compte le contexte dans la distribution, par exemple pour limiter les interactions aux entités d'un contexte défini. De plus, les interactions asynchrones utilisées dans les nouveaux environnements informatiques nécessitent une attention particulière lors de la prise en compte du contexte. De même, la sécurité intervient à la fois dans les couches intergicielles de distribution et de prise en compte du contexte. Dans cette thèse nous présentons un modèle de prise en compte du contexte dans la sécurité et la distribution. Le contrôle d'accès doit évoluer pour intégrer une autorisation dynamique et réactive, basée sur des informations liées à l'environnement et plus simplement sur l'authentification des entités. Les informations contextuelles évoluent suivant une dynamique indépendante des applications. Il est aussi nécessaire de détecter les changements de contexte pour réévaluer l'autorisation. Nous expérimentons cette prise en compte du contexte dans le contrôle des interactions avec la plate-forme expérimentale WComp, issue du modèle SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly). SLCA permet de concevoir des intergiciels et des applications dynamiques dont le découpage fonctionnel n'est pas traduit en couches, mais par un entrelacement de fonctionnalités. Les aspects d'assemblage sont un mécanisme d'adaptation compositionnelle d'assemblages de composants. Nous les utilisons pour exprimer nos préoccupations non-fonctionnelles et pour les composer avec les applications existantes de façon déterministe et réactive. Nous introduisons pour cela des règles de contrôle d'interactions contextualisées. L'intergiciel permet ainsi d'adapter en fonction du contexte nos préoccupations non-fonctionnelles et le comportement de l'application
In ubiquitous computing, context is key. Computer applications are extending their interactions with the environment: new inputs and outputs are used, such as sensors and other mobile devices interacting with the physical environment. Middlewares, created in distributed computing to hide the complexity of lower layers, are then loaded with new concerns, such as taking into account the context, adaptation of applications or security. A middleware layer representation of these concerns cannot express all heir interdependencies. In pervasive computing, distribution is required to obtain contextual information, but it is also necessary to take into account the context in distribution, for example to restrict interactions between entities in a defined context. In addition,asynchronous interactions used in those new environments require special attention when taking into account the context. Similarly, security is involved both in the middleware layers of distribution and context-sensitivity. In this thesis we present a model taking into account the context both in security and distribution. Access control must evolve to incorporate a dynamic and reactive authorization, based on information related to environment or simply on the authentication information of entities. Contextual information evolve with their own dynamic, independent of applications. It is also necessary to detect context changes to reenforce the authorization. We are experimenting this context-awareness targetting interaction control with the experimental framework WComp, derived from the SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly) model. SLCA allows to create dynamic middlewares and applications for which functional cutting is not translated into layers but into an interleaving of functionalities. Aspects of assembly are a mechanism for compositional adaptation of assemblies of components. We use them to express our non-functional concerns and to compose them with existing applications in a deterministic and reactive manner. For this purpose, we introduce context-aware interaction control rules. The middleware thus allows to adapt, according to context, our non-functional concerns and the behavior of the application
APA, Harvard, Vancouver, ISO, and other styles
18

Habib, Lionel. "Formalisations et comparaisons de politiques et de systèmes de sécurité." Paris 6, 2011. http://www.theses.fr/2011PA066146.

Full text
Abstract:
Dans cette thèse, nous étudions le domaine de la sécurité de l'information en s'appuyant sur les méthodes formelles. Nous définissons un cadre sémantique générique qui permet de formaliser et de comparer des politiques et des systèmes de sécurité. Nous décrivons deux approches de formalisation des politiques de sécurité, l'une à base de propriétés, et l'autre à base de règles. De plus, nous montrons de quelle manière nous exprimons des politiques de sécurité administratives selon ces deux approches. Nous présentons la notion de systèmes de sécurité qui consiste à mettre en oeuvre une politique de sécurité par un système de transition. Un système de sécurité peut être obtenu en appliquant une politique de sécurité à un système de transition indépendant, ou en créant un système de transition directement à partir d'une politique de sécurité. Nous introduisons trois préordres qui permettent de comparer des politiques et des systèmes de sécurité. Le préordre sur les politiques de sécurité caractérise une notion de traduction d'information de sécurité, tandis que les deux préordres sur les systèmes de sécurité reposent sur des traductions de labels. Nous appliquons les définitions introduites dans notre cadre en formalisant et en comparant des politiques de contrôle de permissions, d'accès et de flots d'information, des politiques de sécurité administratives, et des systèmes de sécurité. D'autre part, nous mettons en perspective notre travail avec des travaux connexes. Enfin, nous exposons deux applications pratiques réalisées avec l'atelier Focalize, le test d'une politique de contrôle d'accès multi-niveaux, et le développement d'une bibliothèque de politiques de sécurité.
APA, Harvard, Vancouver, ISO, and other styles
19

Lacombe, Eric. "Sécurité des noyaux de systèmes d'exploitation." Phd thesis, INSA de Toulouse, 2009. http://tel.archives-ouvertes.fr/tel-00462534.

Full text
Abstract:
Cette thèse traite de la préservation de l'intégrité des systèmes d'exploitation courants. L'objectif est de répondre aux menaces actuelles et futures que représentent les logiciels malveillants qui s'implantent dans le noyau de ces systèmes (comme les rootkits "noyau") ou du moins en altèrent l'intégrité (comme les rootkits "hyperviseur"). La première partie de ce document se focalise sur ces logiciels malveillants. Tout d'abord, les attaques logiques sur les systèmes informatiques sont présentées dans leur globalité. Ensuite est proposée une classification des actions malveillantes qui provoquent la perte de l'intégrité d'un noyau. Enfin, les résultats d'une étude sur les rootkits "noyau" sont donnés et la création d'un rootkit original est expliquée. La seconde partie s'intéresse à la protection des noyaux. Après une description de l'état de l'art, une approche originale est proposée, fondée sur le concept de préservation de contraintes. En premier lieu, les éléments essentiels sur lesquels reposent un noyau sont identifiés et les contraintes sur ces éléments, nécessaires à un fonctionnement correct du noyau, sont exposées. Un hyperviseur léger (Hytux) a été conçu pour empêcher la violation de ces contraintes en interceptant certaines des actions du noyau. Sa mise en oeuvre est décrite pour un noyau Linux 64 bits sur architecture x86 qui dispose des technologies Intel VT-x et VT-d.
APA, Harvard, Vancouver, ISO, and other styles
20

Pascual, Nathalie. "Horloges de synchronisation pour systèmes haute sécurité." Montpellier 2, 1992. http://www.theses.fr/1992MON20145.

Full text
Abstract:
La participation de l'aerospatiale au pole firtech microelectronique du grand sud ouest est a l'origine de ce travail. La tendance actuelle est a une utilisation de plus en plus importante des calculateurs et des systemes informatiques. Des lors que de tels systemes sont charges d'un role de securite, la notion de calculateurs tolerants aux fautes prend alors toute sa signification. C'est dans le cadre de la securite que s'inscrit le travail presente dans ce memoire, il concerne plus precisement la distribution tolerante aux fautes de signaux d'horloge aux diverses unites de traitement et de commandes redondantes. Le dispositif elabore sera utilise pour synchroniser des acquisitions de donnees au niveau de capteurs ou pour generer des commandes et etre sur que les donnees manipulees sont correctes et que les commandes vont s'appliquer. Deux asics sont issus de ce travail. Le circuit horloge est capable de detecter, signaler la presence de deux pannes et de se reconfigurer sans perte du synchronisme global
APA, Harvard, Vancouver, ISO, and other styles
21

Boisseau, Alexandre. "Abstractions pour la vérification de propriétés de sécurité de protocoles cryptographiques." Cachan, Ecole normale supérieure, 2003. https://theses.hal.science/tel-01199555.

Full text
Abstract:
Depuis le développement de l'utilisation des réseaux informatiques et de l'informatisation des communications, il est apparu pour le public un besoin de sécuriser les communications électroniques. Les considérations cryptographiques constituent un élément de réponse au problème de la sécurité des communications et les protocoles cryptographiques décrivent comment intégrer la cryptographie à l'intérieur de communications réelles. Cependant, même dans le cas où les algorithmes de chiffrement sont supposés robustes, les protocoles peuvent présenter des failles de conception exploitables (failles logiques), entrainant un besoin de vérification formelle. Dans cette thèse, nous utilisons des techniques d'abstraction afin de prouver formellement divers types de propriétés. Les propriétés de secret et d'authentification, les propriétés de type équité et des propriétés de type anonymat
Since the development of computer networks and electronic communications, it becomes important for the public to use secure electronic communications. Cryptographic considerations are part of the answer to the problem and cryptographic protocols describe how to integrate cryptography in actual communications. However, even if the encryption algorithms are robust, there can still remain some attacks due to logical flaw in protocols and formal verification can be used to avoid such flaws. In this thesis, we use abstraction techniques to formally prove various types of properties : secrecy and authentication properties, fairness properties and anonymity
APA, Harvard, Vancouver, ISO, and other styles
22

Laganier, Julien. "Architecture de sécurité décentralisée basée sur l'identification cryptographique." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0354.

Full text
Abstract:
L'objectif de ce travail de thèse est d'étudier le problème de la sécurisation des infrastructures distribuées de communication, d'exécution ou de stockage, dynamiques et à très large échelle. La majorité des solutions de sécurité reposent sur l'existence d'infrastructures de clefs publiques globales, dont le déploiement soulève de nombreux problèmes, tant techniques qu'administratifs et politiques. Afin d'échapper à cette contrainte, nous proposons une approche de sécurité décentralisée basée sur l'identification cryptographique (CBID, CGA, HBA et HIP) et la délégation (certificats SPKI). Nous montrons qu'une telle approche de sécurité est plus adaptée à la nature intrinsèquement décentralisée de systèmes de grandes tailles, ouverts et partagés, tels que l'Internet ou les grilles de calculs. Pour valider cette approche, nous l'avons instanciée en nous appuyant sur les protocoles de sécurité pour IP (IPsec), et d'identification des hôtes (HIP - Host Identity Protocol). Nous montrons ainsi comment sont sécurisés différents protocoles réseaux. En particulier, des solutions de sécurité pour la couche réseau IPv6 (Internet Protocol version 6) et pour sa composante de découverte du voisinage ND (Neighbor Discovery), ainsi que pour virtualiser l'infrastructure d'exécution, de communication et de stockage des grilles de calcul (Supernet, HIPernet, Internet Backplane Protocol) sont présentées et analysées
This thesis studies the problem of securing large scale and dynamic communication, execution and storage infrastructures. The majority of existing security solutions relies on the existence of a global public key infrastructure. The deployment of such a global infrastructure is problematic at technical, administrative and political levels. In order to relieve solutions from this constraint, we propose a decentralized security approach based on cryptographic identifiers (CBID, CGA, HBA and HIP) and delegation (SPKI certificates). We show that this security approach fits better to the intrinsical decentralized nature of the large scale, shared and open systems like Internet or grid computing. To validate the approach, we instantiate it into several security solutions for existing protocols using the IP security (IPsec) and host identity (HIP) protocols. In particular, security solutions for the IPv6 (Internet Protocol version 6) network layer and its ND (Neighbor Discovery) component, as well as for virtualization of the execution, communication and storage infrastructure of grid computing (Supernet, HIPernet and Internet Backplane Protocol) are presented and analysed
APA, Harvard, Vancouver, ISO, and other styles
23

Delpech, Vincent. "Dématérialisation et sécurité des transactions." Bordeaux 4, 1996. http://www.theses.fr/1996BOR40029.

Full text
Abstract:
Sous l'influence des technologies nouvelles de communication, l'ecrit manuscrit disparait progressivement dans la phase d'echange des consentements. En meme temps, l'expression des volontes se materialise sur de nouveaux supports electroniques. La dematerialisation n'est pas synonyme de disparition de toute trace. Pour la securite des transactions, principalement au regard du droit de la preuve, il s'agit de mettre en evidence les moyens tant legislatifs que contractuels permettant de legitimer juridiquement les echanges de donnees informatises. La demarche semble necessaire car ces nouvelles techniques sont fiables et adaptees a la rapidite des relations economiques actuelles. Elles assurent l'identification des parties, l'authentification du contenu contractuel et font l'objet d'une protection contre toute atteinte a leur integrite intellectuelle. Ces facteurs justifient une reconnaissance autonome des nouvelles ecritures mais aussi une lecture differente du concept traditionnel d'ecrit
Because of the influence of new communication technologies, the written support to contract is gradually removed from drafting of such documents. In the meantime, the exchange of consent finds a new dematerialization on an electronic background. But dematerialization doesn't mean suppression of all sign of existence. Bacause of the need to secure the security of transactions, notably in relation to the rules of evidence, must be enlightened legals means, both statute and contractual, of legitimating computer information. This research is necessary, since those new technics are reliable and adapted to the speed of today's economical relationship. Those technics provide identification of parties, authentification of the contents of the contract and are a guarantee against any attack on their intellectual integrity. Those elements justify an autonomous acknowledgement of new forms of writing, but also a different reading of the traditional concept of what is a written support
APA, Harvard, Vancouver, ISO, and other styles
24

Ouedraogo, Wendpanga Francis. "Gestionnaire contextualisé de sécurité pour des « Process 2.0 »." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0132/document.

Full text
Abstract:
Compte tenu de l’environnement économique globalisé et de plus en plus concurrentiel, les entreprises et en particulier les PME/PMI, pour rester compétitif,doivent développer de nouvelles stratégie de collaborations (intra et inter-entreprises) et se restructurer pour rendre leur organisation et le système d’information agile. Alors que jusqu'à présent le Web 2.0 permettait de collaborer sur les données elles-mêmes, nous proposons de passer à une logique de « process 2.0 » permettant de rechercher / composer sémantiquement des services existants pour collaborer directement en partageant des fonctionnalités et non plus seulement des données. Couplé au développement du Cloud Computing, facilitant l’hébergement, une telle stratégie permettrait de coupler plus fortement les niveaux SaaS et PaaS. Toutefois, ceci pose d’évidents problèmes de gestion des contraintes de sécurité. Le développement de stratégies de sécurité est usuellement basé sur une analyse systématique des risques afin de les réduire en adoptant des contre-mesures. Ces approches sont lourdes, complexes à mettre en œuvre et sont souvent rendues caduques car les risques sont évalués dans un monde « fermé », ce qui n’est pas le cas d’une approche par composition de services métier réutilisable où le contexte d’utilisation des différents services au niveau métier et plateforme est inconnu a priori. Dans ce type d’approche, le contexte au niveau métier évoque à la fois les fonctionnalités apportées par chaque service, l’organisation (Qui fait à quoi ?) et l’enchainement de ces services ainsi que les types de données (d’ordre stratégique ou pas,..) que manipulent ces services. Au niveau plateforme, le contexte dépend de l’environnement (privé, public,..) dans lequel les services vont s’exécuter. C’est donc sur la base de l’analyse du contexte que l’on peut définir les contraintes de sécurités propres à chaque service métier, pouvoir spécifier les politiques de sécurités adéquates et mettre en œuvre les moyens de sécurisation adaptés. En outre, il est aussi nécessaire de pouvoir propager les politiques de sécurités sur tout le processus afin d’assurer la cohérence et une sécurité globale lors de l’exécution du processus. Pour répondre à ces enjeux, nous proposons d’étudier la définition des politiques de sécurité à base de « patrons » apportant une réponse graduée en fonction de la confiance que l’on a sur l’environnement. Ainsi des patrons de sécurité qui répondent à des besoins de sécurité métiers et à des besoins de sécurité plateforme seront définis et permettront d’exprimer l’ensemble des politiques de sécurité. La sélection et de mise en œuvre de ces politiques de sécurités se feront à partir de patrons de contexte. Notre proposition simple à appréhender par des non spécialistes, permettra, par des transformations de modèles, d’intégrer ces politiques au niveau technologique afin de garantir un niveau de qualité de protection constant quel que soit l’environnement de déploiement
To fit the competitive and globalized economic environment, companies and especially SMEs / SMIs are more and more involved in collaborative strategies, requiring organizational adaptation to fit this openness constraints and increase agility (i.e. the ability to adapt and fit the structural changes). While the Web 2.0 allows sharing data (images, knowledge, CV, micro-blogging, etc...) and while SOA aims at increasing service re-using rate and service interoperability, no process sharing strategies are developed. To overcome this limit, we propose to share processes as well to set a "process 2.0" framework allowing sharing activities. This will support an agile collaborative process enactment by searching and composing services depending on the required business organization and the service semantics. Coupled with the cloud computing deployment opportunity, this strategy will lead to couple more strongly Business, SaaS and PaaS levels. However, this challenges security constraints management in a dynamic environment. The development of security policies is usually based on a systematic risks analysis, reducing them by adopting appropriate countermeasures. These approaches are complex and as a consequence difficult to implement by end users. Moreover risks are assessed in a "closed" and static environment so that these methods do not fit the dynamic business services composition approach, as services can be composed and run in different business contexts (including the functionalities provided by each service, the organization (Who does what?), the coordination between these services and also the kind of data (strategic or no...) that are used and exchanged) and runtime environment (public vs private platform…). By analyzing these contextual information, we can define specific security constraints to each business service, specify the convenient security policies and implement appropriate countermeasures. In addition, it is also necessary to be able to propagate the security policies throughout the process to ensure consistency and overall security during the process execution. To address these issues, we propose to study the definition of security policies coupling Model Driven Security and Pattern based engineering approach to generate and deploy convenient security policies and protection means depending on the (may be untrusted) runtime environment. To this end, we propose a set of security patterns which meet the business and platform related security needs to set the security policies. The selection and the implementation of these security policies will be achieved thank to context-based patterns. Simple to understand by non-specialists, these patterns will be used by the model transformation process to generate these policies in a Model@Runtime strategy so that security services will be selected and orchestrated at runtime to provide a constant quality of protection (independent of the deployment)
APA, Harvard, Vancouver, ISO, and other styles
25

Ould-Slimane, Hakima. "Réécriture de programmes pour une application effective des politiques de sécurité." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28026/28026.pdf.

Full text
Abstract:
Durant ces dernières décennies, nous avons assisté à une automatisation massive de la société selon toutes ses sphères. Malheureusement, cette révolution technologique n’a pas eu que des bienfaits. En effet, une nouvelle génération de criminels en a profité, afin d’occasionner davantage d’activités illégales. De ce fait, afin de protéger les systèmes informatiques, il est devenu plus que primordial de définir rigoureusement des politiques de sécurité ainsi que de mettre en oeuvre des mécanismes efficaces capables de les appliquer. L’objectif majeur d’un mécanisme de sécurité consiste souvent à contrôler des logiciels, afin de les contraindre à “bien” se comporter. Cependant, la plupart des mécanismes de sécurité procèdent par des méthodes ad hoc qui sont loin d’être efficaces. En outre, ils sont peu fiables, puisqu’il n’y a aucune preuve sur leur capacité à faire respecter les politiques de sécurité. De là apparaît la nécessité de concevoir des mécanismes de sécurité alternatifs qui résolvent le problème de l’application de la sécurité d’une manière formelle, correcte et précise. Dans ce contexte, notre thèse cible principalement la caractérisation formelle de l’application effective des politiques de sécurité via des mécanismes basés sur la réécriture de programmes. On entend par application effective, le fait d’éliminer tous les “mauvais” comportements d’un programme, tout en conservant tous les “bons” comportements qu’il engendre, et ce, sans compromettre la sémantique du programme à sécuriser. Nous avons opté pour la réécriture de programmes, vu sa grande puissance par rapport aux autres mécanismes de sécurité qui sont soit laxistes soit très restrictifs. Les principaux résultats qui ont été réalisés, afin d’atteindre les objectifs ciblés par cette thèse sont les suivants : – Caractérisation formelle de l’application des propriétés de sûreté par la réécriture de programmes. Il s’agit d’appliquer les propriétés de sûreté qui constituent la classe de propriétés de sécurité la plus communément appliquée par les mécanismes de sécurité. – Caractérisation formelle de l’application de n’importe quelle propriété de sécurité par la réécriture de programmes. Cette contribution montre comment la réécriture de programmes permet l’application de politiques de sécurité qu’aucune autre classe de mécanismes de sécurité ne peut appliquer. – Caractérisation alternative de l’application de la sécurité par une approche algébrique. Cette contribution propose un formalisme algébrique afin de réduire l’écart entre la spécification et l’implantation des mécanismes de sécurité basés-réécriture.
During the last decades, we have witnessed a massive automation of the society at all levels. Unfortunately, this technological revolution came with its burden of disadvantages. Indeed, a new generation of criminals emerged and is benefitting from continuous progress of information technologies to cause more illegal activities. Thus, to protect computer systems, it has become very crucial to rigorously define security policies and provide the effective mechanisms required to enforce them. Usually, the main objective of a security mechanism is to control the executions of a software and ensure that it will never violate the enforced security policy. However, the majority of security mechanisms are based on ad hoc methods and thus, are not effective. In addition, they are unreliable, since there is no evidence on their ability to enforce security policies. Therefore, there is a need to develop novel security mechanisms that allow enforcing security policies in a formal, correct, and accurate way. In this context, our thesis targets the formal characterization of effective security policies enforcement that is based on programs rewriting. We mean by “effective” enforcement preventing all the “bad” behaviors of a program while keeping all its "good" behaviors. In addition, effective enforcement should not compromise the semantics of controlled programs. We have chosen for rewriting programs, because it has a great power compared to other security mechanisms that are either permissive or too restrictive. Themain contributions of this thesis are the following : – Formal characterization of security enforcement of safety properties through program rewriting. Safety properties represent the main class of properties usually enforced by security mechanisms. – Formal characterization of any security property using program rewriting. This contribution shows how program rewriting allows the enforcement of security policies that no other class of security mechanisms can enforce. – Algebraic approach as an alternative formal characterization of program rewriting based security enforcement. In this contribution, we investigate an algebraic formal model in order to reduce the gap between the specification and the implementation of program rewriting based security mechansisms.
APA, Harvard, Vancouver, ISO, and other styles
26

Humphries, Christopher. "User-centred security event visualisation." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S086/document.

Full text
Abstract:
Il est aujourd'hui de plus en plus difficile de gérer les énormes quantités de données générées dans le cadre de la sécurité des systèmes. Les outils de visualisation sont une piste pour faire face à ce défi. Ils représentent de manière synthétique et souvent esthétique de grandes quantités de données et d'événements de sécurité pour en faciliter la compréhension et la manipulation. Dans ce document, nous présentons tout d'abord une classification des outils de visualisation pour la sécurité en fonction de leurs objectifs respectifs. Ceux-ci peuvent être de trois ordres : monitoring (c'est à dire suivi en temps réel des événements pour identifier au plus tôt les attaques alors qu'elles se déroulent), exploration (parcours et manipulation a posteriori d'une quantité importante de données pour découvrir les événements importants) ou reporting (représentation a posteriori d'informations déjà connues de manière claire et synthétique pour en faciliter la communication et la transmission). Ensuite, nous présentons ELVis, un outil capable de représenter de manière cohérente des évènements de sécurité issus de sources variées. ELVis propose automatiquement des représentations appropriées en fonction du type des données (temps, adresse IP, port, volume de données, etc.). De plus, ELVis peut être étendu pour accepter de nouvelles sources de données. Enfin, nous présentons CORGI, une extension d'ELVIs permettant de manipuler simultanément plusieurs sources de données pour les corréler. A l'aide de CORGI, il est possible de filtrer les évènements de sécurité provenant d'une source de données en fonction de critères résultant de l'analyse des évènements de sécurité d'une autre source de données, facilitant ainsi le suivi des évènements sur le système d'information en cours d'analyse
Managing the vast quantities of data generated in the context of information system security becomes more difficult every day. Visualisation tools are a solution to help face this challenge. They represent large quantities of data in a synthetic and often aesthetic way to help understand and manipulate them. In this document, we first present a classification of security visualisation tools according to each of their objectives. These can be one of three: monitoring (following events in real time to identify attacks as early as possible), analysis (the exploration and manipulation a posteriori of a an important quantity of data to discover important events) or reporting (representation a posteriori of known information in a clear and synthetic fashion to help communication and transmission). We then present ELVis, a tool capable of representing security events from various sources coherently. ELVis automatically proposes appropriate representations in function of the type of information (time, IP address, port, data volume, etc.). In addition, ELVis can be extended to accept new sources of data. Lastly, we present CORGI, an successor to ELVIS which allows the simultaneous manipulation of multiple sources of data to correlate them. With the help of CORGI, it is possible to filter security events from a datasource by multiple criteria, which facilitates following events on the currently analysed information systems
APA, Harvard, Vancouver, ISO, and other styles
27

Saadi, Rachid. "The Chameleon : un système de sécurité pour utilisateurs nomades en environnements pervasifs et collaboratifs." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0040/these.pdf.

Full text
Abstract:
L’avènement de l’informatique pervasive permet la mise en place d’environnements intelligents et communicants offrant à l’utilisateur la possibilité de faire interagir ses équipements avec son environnement de manière aisée et transparente. La mobilité de l’utilisateur et la multiplication des dispositifs légers et autonomes accentuent et rendent plus complexes les problèmes de sécurité. En effet, la mise en place d’environnements pervasifs permet à l’utilisateur nomade de solliciter ou de communiquer avec d’autres utilisateurs, des ressources ou des services au sein d’environnements ou de domaines qui lui sont inconnus et réciproquement. Les mécanismes et les solutions existants sont inadéquats pour pallier les nouveaux challenges issus principalement des problèmes d’authentification, de contrôle d’accès et de protection de la vie privée. Dans un système aussi fortement distribué et imprédictible, l’existence d’une autorité centralisatrice n’est en effet pas possible. Il est donc nécessaire de rendre la décision d’accès plus autonome et donc répartie. Dans cette thèse, nous défendons l’idée que l’implémentation d’un système de sécurité basé sur la confiance constitue une solution particulièrement adaptée aux environnements pervasifs. Notre travail à conduit à l’élaboration d’une architecture générique de sécurité prenant en charge l’utilisateur depuis l’identification jusqu’à l’attribution de droits d’accès dans des milieux inconnus. Nommée «Chameleon», celle-ci prend en charge les problèmes issus de l’authentification et du contrôle d’accès dans les environnements mobiles et ubiquitaires. La mise en place de notre approche a nécessité l’implémentation d’un nouveau format de certification « X316 » adaptable au contexte de l’utilisateur, ainsi que la définition d’un modèle de confiance inter-organisations (T2D) dont le but est d’étendre le champ d’accès des utilisateurs mobiles aux ressources environnantes
While the trust is easy to set up between the known participants of a communication, the evaluation of trust becomes a challenge when confronted with unknown environment. It is more likely to happen that the collaboration in the mobile environment will occur between totally unknown parties. An approach to handle this situation has long been to establish some third parties that certify the identities, roles and/or rights of both participants in a collaboration. In a completely decentralized environment, this option is not sufficient. To decide upon accesses one prefer to rely only on what is presented to him by the other party and by the trust it can establish, directly by knowing the other party or indirectly, and vice-versa. Hence a mobile user must for example present a set of certificates known in advance and the visited site may use these certificates to determine the trust he can have in this user and thus potentially allow an adapted access. In this schema the mobile user must know in advance where she wants to go and what she should present as identifications. This is difficult to achieve in a global environment. Moreover, the user likes to be able to have an evaluation of the site she is visiting to allow limited access to her resources. And finally, an user does not want to bother about the management of her security at fine grain while preserving her privacy. Ideally, the process should be automatized. Our work was lead to define the Chameleon architecture. Thus the nomadic users can behave as chameleons by taking the "colors" of their environments enriching their nomadic accesses. It relies on a new T2D trust model which is characterized by support for the disposition of trust. Each nomadic user is identified by a new morph certification model called X316. The X316 allows to carry out the trust evaluation together with the roles of the participants while allowing to hide some of its elements, preserving the privacy of its users
APA, Harvard, Vancouver, ISO, and other styles
28

Godonou, Théophane Gloria. "Combinaison d'approche statique et dynamique pour l'application de politiques de sécurité." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30434/30434.pdf.

Full text
Abstract:
Ce mémoire présente une approche d'application de politiques de sécurité qui utilise une analyse de types basée sur un système de types multi-valeurs. Cette analyse est suivie d'une instrumentation lorsque nécessaire. Le langage cible est un langage impératif. Notre approche vise à réduire les faux-positifs générés par une analyse statique, et à réduire la surcharge d'exécution en n'instrumentant que lorsque nécessaire. Les faux-positifs surviennent dans l'analyse de systèmes informatiques lorsqu'une information est manquante durant la compilation, par exemple le nom d'un fichier, et par conséquent, son niveau de sécurité. L'idée principale de notre approche est de distinguer les réponses négatives des réponses incertaines. Au lieu de rejeter les commandes potentiellement non sécuritaires, elles sont identifiées et étiquetées pour la seconde phase de l'analyse. Les réponses négatives et positives sont traitées comme cela se fait d'habitude. Ce travail est une approche hybride d'application de politique de sécurité : les points potentiellement sécuritaires du programme détectés par notre analyse par typage sont instrumentés par la suite avec des tests dynamiques. Le système de typage sur lequel se base le nôtre a été présenté par Desharnais et al. [12]. Notre approche a été acceptée pour publication [7]. Dans ce travail nous présentons les modifications apportées au précédent travail et la phase d'instrumentation qui la complète. La nouveauté de notre approche est de rajouter un niveau de sécurité aux trois du travail précédent. Nous traitons les canaux et les variables de façon spéciale. Les programmes interagissent par le biais de canaux de communication. Des niveaux de confidentialité sont associés aux canaux plutôt qu'aux variables dont le niveau de sécurité est fonction de l'information qu'elles stockent. Notre analyse est sensible au flot.
In this Master thesis, we present an approach to enforce information flow policies using a multi-valued type-based analysis followed by an instrumentation when needed. The target is a core imperative language. Our approach aims at reducing false positives generated by static analysis, and at reducing execution overhead by instrumenting only when needed. False positives arise in the analysis of real computing systems when some information is missing at compile time, for example the name of a file, and consequently, its security level. The key idea of our approach is to distinguish between negative and may responses. Instead of rejecting the possibly faulty commands, they are identified and annotated for the second step of the analysis; the positive and negative responses are treated as is usually done. This work is a hybrid security enforcement mechanism: the maybe-secure points of the program detected by our type based analysis are instrumented with dynamic tests. The basic type based analysis has been reported by Desharnais et al. [12], this work deals with the modification of the type system and the instrumentation step. It has been accepted for publication [7]. The novelty of our approach is the handling of four security types, but we also treat variables and channels in a special way. Programs interact via communication channels. Secrecy levels are associated to channels rather than to variables whose security levels change according to the information they store. Thus the analysis is flow-sensitive.
APA, Harvard, Vancouver, ISO, and other styles
29

Fall, Marfall N'Diaga. "Sécurisation formelle et optimisée de réseaux informatiques." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27543/27543.pdf.

Full text
Abstract:
Les pare-feu sont des éléments cruciaux pour le renforcement de la politique de sécurité d’un réseau. Ils ont été largement déployés pour sécuriser les réseaux privés, mais leur configuration reste complexe et sujette de plusieurs anomalies. Au cours des dernières années, plusieurs techniques et outils ont été proposés pour configurer correctement un pare-feu. Cependant, la plupart de ces techniques restent informelles et ne prennent pas en compte la performance globale du réseau ou d’autres paramètres de qualités de services. Dans ce mémoire, nous introduisons une approche formelle permettant de configurer optimalement et formellement un réseau de sorte qu’il respecte une politique de sécurité donnée tout en tenant compte de ses qualités de services.
Firewalls are crucial elements in enforcing network security policies. They have been widely deployed for securing private networks but, their configuration remains complex and error prone. During the last years, many techniques and tools have been proposed to correctly configure firewalls. However, most of existing works are informal and do not take into account the global performance of the network or other qualities of its services (QoS). In this thesis we introduce a formal approach allowing to formally and optimally configure a network so that a given security policy is respected and by taking into account the QoS.
APA, Harvard, Vancouver, ISO, and other styles
30

Faurax, Olivier. "Méthodologie d'évaluation par simulation de la sécurité des circuits face aux attaques par faute." Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22106.pdf.

Full text
Abstract:
Les circuits microélectroniques sécuritaires sont de plus en plus présents dans notre quotidien (carte à puce, carte SIM) et ils renferment des informations sensibles qu’il faut protéger (numéro de compte, clé de chiffrement, données personnelles). Récemment, des attaques sur les algorithmes de cryptographie basées sur l’utilisation de fautes ont fait leur apparition. L’ajout d’une faute lors d’un calcul du circuit permet d’obtenir un résultat faux. À partir d’un certain nombre de résultats corrects et de résultats faux correspondants, il est possible d’obtenir des informations secrètes et dans certains cas des clés cryptographiques complètes. Cependant, les perturbations physiques utilisées en pratique (impulsion laser, radiations, changement rapide de la tension d’alimentation) correspondent rarement aux types de fautes nécessaires pour réaliser ces attaques théoriques. Dans ce travail, nous proposons une méthodologie pour tester les circuits face aux attaques par faute en utilisant de la simulation. L’utilisation de la simulation permet de tester le circuit avant la réalisation physique mais nécessite beaucoup de temps. C’est pour cela que notre méthodologie aide l’utilisateur à choisir les fautes les plus importantes pour réduire significativement le temps de simulation. L’outil et la méthodologie associée ont été testés sur un circuit cryptographique (AES) en utilisant un modèle de faute utilisant des délais. Nous avons notamment montré que l’utilisation de délais pour réaliser des fautes permet de générer des fautes correspondantes à des attaques connues
Microelectronic security devices are more and more present in our lives (smartcards, SIM cards) and they contains sensitive informations that must be protected (account number, cryptographic key, personal data). Recently, attacks on cryptographic algorithms appeared, based on the use of faults. Adding a fault during a device computation enables one to obtain a faulty result. Using a certain amount of correct results and the corresponding faulty ones, it is possible to extract secret data and, in some cases, complete cryptographic keys. However, physical perturbations used in practice (laser, radiations, power glitch) rarely match with faults needed to successfully perform theoretical attacks. In this work, we propose a methodology to test circuits under fault attacks, using simulation. The use of simulation enables to test the circuit before its physical realization, but needs a lot of time. That is why our methodology helps the user to choose the most important faults in order to significantly reduce the simulation time. The tool and the corresponding methodology have been tested on a cryptographic circuit (AES) using a delay fault model. We showed that use of delays to make faults can generate faults suitable for performing known attacks
APA, Harvard, Vancouver, ISO, and other styles
31

Turuani, Mathieu. "Sécurité des protocoles cryptographiques : décidabilité et complexité." Nancy 1, 2003. http://www.theses.fr/2003NAN10223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Ribeiro, Marcelo Alves. "Méthodes formelles pour la vérification probabiliste de propriétés de sécurité de protocoles cryptographiques." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28121/28121.pdf.

Full text
Abstract:
Certains protocoles cryptographiques ont été développés spécifiquement pour assurer quelques propriétés de sécurité dans nos réseaux de communication. Dans le but de s'assurer qu'un protocole remplit ses propriétés de sécurité, des vérifications probabilistes y sont donc entreprises afin de confirmer s'il présente des failles lorsqu'on prend en compte leur comportement probabiliste. Nous avons voulu entreprendre une méthode probabiliste, mais aussi non-déterministe, de modélisation de protocoles afin de confirmer si cette méthode peut remplacer d'autres qui ont déjà été utilisées pour vérifier des failles sur des protocoles cryptographiques. Cela nous a motivé à envisager comme objectif de nos recherches scientifiques, des analyses quantitatives des possibilités de faille sur des protocoles cryptographiques.
Certain cryptographic protocols were specifically developed to provide some security properties in our networks of communication. For the purpose of assuring that a protocol fulfils its security properties, probabilistic model checkings are undertaken to confirm if it introduces a fault when its probabilistic behavior is considered. We wanted to use a probabilistic method (and also non-deterministic) of protocols modeling to confirm if this method may substitute others that were already used for checking faults in cryptographic protocols. It leads us to consider the objective of our scientific researches as: quantitative analysis of faults in cryptographic protocols.
APA, Harvard, Vancouver, ISO, and other styles
33

Kabil, Alexandre. "CyberCOP 3D : visualisation 3D interactive et collaborative de l'état de sécurité d'un système informatique." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0166.

Full text
Abstract:
L’objectif de la thèse était d’étudier l’utilisation d’Environnements Virtuels Collaboratifs (EVC) pour l’analyse de l’état de sécuritéde systèmes informatiques, aussi appelée la Cyber Situational Awareness (CSA). Après avoir étudié les modèles et outils de la CSA, nous avons pu visiter les Security Operations Center (SOCs) de quatre partenaires industriels de la Chaire Cyber CNI, afin de mieux cerner les besoins et attentes des cyber analystes. Ces visites ont été effectuées dans le cadre d’un protocole de l’analyse de l’activité collaborative et nous ont permises de proposer un modèle, le CyberCOP 3D. En nous basant sur notre modèle ainsi que sur une modélisation du rançongiciel WannaCry, nous avons développé un EVC pour la cybersécurité ainsi qu’un moteur de scénarisation simplifié permettant à des utilisateurs de concevoir leurs propres scénarios d’analyse d’alertes. Nous avons effectué une évaluation de l’utilisabilité d’un environnement virtuel pour l’analyse d’alertes auprès d’utilisateurs non-experts en cybersécurité
The aim of this thesis was to study the use of Collaborative Virtual Environments (CVE) for the analysis of the state of security of computer systems, also called Cyber Situational Awareness (CSA). After studying CSA’s models and tools, we have had the opportunity to visit the Security Operations Centers (SOCs) of four industrial partners of the CyberCNI chair, in order to better understand the needs and expectations of cyber analysts. These visits were made as part of a collaborative activity analysis protocol and have allowed us to propose a model, the 3D Cyber-COP. Based on this model and a model of the WannaCry ransomware, we have developed a CVE and a simplified scenario engine that allows users to design their own alert analysis scenarios. We have also performed a usability evaluation of a virtual environment for alert analysis, with a panel of novice users
APA, Harvard, Vancouver, ISO, and other styles
34

Santana, de Oliveira Anderson. "Réécriture et modularité pour les politiques de sécurité." Thesis, Nancy 1, 2008. http://www.theses.fr/2008NAN10007/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la spécification et à l’analyse modulaires de politiques de sécurité flexibles basées sur des règles. Nous introduisons l’utilisation du formalisme de réécriture stratégique dans ce domaine, afin que notre cadre hérite des techniques, des théorèmes, et des outils de la théorie de réécriture. Ceci nous permet d’énoncer facilement et de vérifier des propriétés importantes des politiques de sécurité telles que l’absence des conflits. En outre, nous développons des méthodes basées sur la réécriture de termes pour vérifier des propriétés plus élaborées des politiques. Ces propriétés sont la sûreté dans le contrôle d’accès et la détection des flux d’information dans des politiques obligatoires. Par ailleurs, nous montrons que les stratégies de réécriture sont importantes pour préserver des propriétés des politiques par composition. Les langages de stratégies disponibles dans des systèmes comme Tom, Stratego, Maude, ASF+SDF et Elan, nous permettent de définir plusieurs genres de combinateurs de politiques. Enfin, nous fournissons également une méthodologie pour imposer à des applications existantes, de respecter des politiques basées sur la réécriture via la programmation par aspects. Les politiques sont tissées dans le code existant, ce qui génère des programmes mettant en oeuvre des moniteurs de référence. La réutilisation des politiques et des programmes est améliorée car ils peuvent être maintenus indépendamment
In this thesis we address the modular specification and analysis of flexible, rule-based policies. We introduce the use of the strategic rewriting formalism in this domain, such that our framework inherits techniques, theorems, and tools from the rewriting theory. This allows us to easily state and verify important policy properties such as the absence of conflicts, for instance. Moreover, we develop rewrite-based methods to verify elaborate policy properties such as the safety problem in access control and the detection of information flows in mandatory policies. We show that strategies are important to preserve policy properties under composition. The rich strategy languages available in systems like Tom, Stratego, Maude, ASF+SDF and Elan allows us to define several kinds of policy combiners. Finally, in this thesis we provide a systematic methodology to enforce rewrite-based policies on existing applications through aspect-oriented programming. Policies are weaved into the existing code, resulting in programs that implement a reference monitor for the given policy. Reuse is improved since policies and programs can be maintained independently from each other
APA, Harvard, Vancouver, ISO, and other styles
35

Oualha, Nouha. "Sécurité et coopération pour le stockage de donnéees pair-à-pair." Paris, ENST, 2009. http://www.theses.fr/2009ENST0028.

Full text
Abstract:
Les algorithmes et les protocoles auto-organisants ont récemment suscité beaucoup d'intérêt aussi bien pour les réseaux mobiles ad-hoc que pour les systèmes pair-à-pair (P2P), comme l’illustrent les applications de partage de fichiers ou VoIP. Le stockage P2P, où les pairs accroissent collectivement leurs ressources de stockage afin d’assurer la fiabilité et la disponibilité des données, est un domaine d'application émergeant. Le stockage P2P suscite cependant des enjeux de sécurité qui doivent être traités, en particulier en ce qui concerne l'égoïsme des pairs, en particulier en ce qui concerne le parasitisme (free-riding). L'observation continue du comportement des pairs et le contrôle du processus de stockage est une condition importante pour sécuriser un système de stockage contre de telles attaques. Détecter le mauvais comportement de pairs exige des primitives appropriées comme les preuves de possession de données, une forme de preuve de connaissance par lequel le pair de stockage essaye interactivement de convaincre le vérificateur qu'il possède les données sans les envoyer ou les copier chez le vérificateur. Nous proposons et passons en revue plusieurs protocoles de vérification de possession de données. Nous étudions en particulier comment la vérification et la maintenance de données peuvent être déléguées à des volontaires pour tolérer la déconnexion des pairs. Nous proposons alors deux mécanismes, l’un basé sur la réputation et l'autre sur la rémunération, pour imposer la coopération au moyen de telles preuves de possession de données périodiquement fournies par les pairs assurant le stockage. Nous évaluons l'efficacité de telles incitations avec des technique
Self-organizing algorithms and protocols have recently received a lot of interest in mobile ad-hoc networks as well as in peer-to-peer (P2P) systems, as illustrated by file sharing or VoIP. P2P storage, whereby peers collectively leverage their storage resources towards ensuring the reliability and availability of user data, is an emerging field of application. P2P storage however brings up far-reaching security issues that have to be dealt with, in particular with respect to peer selfishness, as illustrated by free-riding attacks. The continuous observation of the behavior of peers and monitoring of the storage process is an important requirement to secure a storage system against such attacks. Detecting peer misbehavior requires appropriate primitives like proof of data possession, a form of proof of knowledge whereby the holder interactively tries to convince the verifier that it possesses some data without actually retrieving them or copying them at the verifier. We propose and review several proof of data possession protocols. We in particular study how data verification and maintenance can be handed over to volunteers to accommodate peer churn. We then propose two mechanisms, one based on reputation and the other on remuneration, for enforcing cooperation by means of such data possession verification protocols, as periodically delivered by storage peers. We assess the effectiveness of such incentives with game theoretical techniques. We in particular discuss the use of non-cooperative one-stage and repeated Bayesian games as well as that of evolutionary games
APA, Harvard, Vancouver, ISO, and other styles
36

Oundjian-Barts, Hélène. "Droit, sécurité et commerce électronique." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX32063.

Full text
Abstract:
Depuis la loi du 6 janvier 1978, Internet s’étant imposé comme un moyen d’échange révolutionnant le fonctionnement mondial des économies, et en raison des divergences de législations, la France a dû se doter de tout un arsenal juridique en matière notamment de preuve, de cryptologie ou encore de définitions propres à cette matière avec surtout la loi du 21 juin 2004 pour la confiance dans l’économie numérique. Elle a ainsi participé à l’émergence d’une « lex electronica », à l’image de son ancêtre « la lex mercatoria ». La contractualisation devenue banale sur Internet donne une pleine justification à ces dispositifs et rend la question de la sécurité d’une acuité particulière en raison de la multiplicité des sites possibles d’infractions, du nombre croissant d’internautes qui rendent parfois très aléatoire l’identification, la localisation et l’appréhension des contrevenants, et par conséquent la détermination du droit applicable. Elle a poursuivi sa modernisation par l’adoption de la nouvelle loi informatique et liberté, et de la loi dite DADVSI en 2006 sur les droits d’auteur et droits voisins dans la société de l’information. Dans le cadre d’une politique managériale sécuritaire stratégique répondant à une logique économique de maximisation des investissements de la cyberentreprise, et de sensibilisation des internautes, la technique et le droit (dont la cohérence globale sera assurée par les tribunaux), viendront ainsi renforcer la confiance et le respect des droits des ntervenants du réseau, au service d’un développement pérenne du commerce électronique
Since the 1st January of 1978 law, Internet has become a new mean of exchange which has stirred up the whole world economy functioning, and due to discrepancies between regulations, France has been compelled to adopt appropriate laws as far as proof, cryptology, or special definitions, are concerned, with for instance the 21st June 2004 law. So that it took part in the lex electronica apparition, similar to its ancestor the lex mercatoria. As contracting on Internet has become usual, those plans of action are fully justified and they give security questions a particular sharpness because of so many possible sites of infringements and of the increasing number of web partners who make the identification, localisation and catching trespassers, very uncertain therefore as the determination of law enforcement. It went on with its modernisation by adopting the new regulation about computer and liberties, and the DADVSI law in 2006 about royalties and bordering rights in the information society. Within the framework of a strategic security managerial politics responding to an investment optimisation logical economy of the cyber-company, and in order to make web partners be sensitive to this problem, technologies and law (which global consistence will be assured by Courts), will reinforce confidence and rights respects in that way, to serve a durable electronic commerce development
APA, Harvard, Vancouver, ISO, and other styles
37

Trinh, Viet Cuong. "Sécurité et efficacité des schémas de diffusion de données chiffrés." Paris 8, 2013. http://octaviana.fr/document/181103516#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Dans cette thèse, nous étudions le domaine de la diffusion de données chiffrés avec traçage de traîtres et nous avons trois contributions. Tout d’abord, dans le contexte de traçage de traîtres, nous rappelons les trois modèles dans la litérature: modèle de traçage sans boîte-noire, modèle de traçage avec boîte-noire à une clé, et modèle de traçage boîte-noire générale. Le dernier modèle est évidemment le plus important car il couvre toutes les stratégies d’adversaires, mais les deux premiers modèles sont également utiles car il couvre de nombreux scénarios pratiques. Nous proposons un schéma optimal dans le modèle traçage sans boîte-noire et dans le modèle de traçage avec boîte-noire à une clé. Ensuite, nous étudions les deux nouveaux types d’attaques avancés (à savoir les pirates évolutifs et les Pirates 2. 0) qui ont été proposées pour souligner certaines faiblesses des schémas du paradigme de subset-cover, ou plus généralement les schémas combinatoires. Comme les schémas du paradigme de subset-cover ont été largement mis en oeuvre dans la pratique, il est nécessaire de trouver des contre-mesures pour résister à ces deux types d’attaque. Dans notre travail, nous construisons deux types de schémas qui sont relativement efficaces et qui résistent bien deux types d’attaque. Enfin, nous étudions un modèle généralisé de la diffusion de données chiffrés qui peut être appliquée dans la pratique comme dans les systèmes de télévision à péage. Dans ce contexte, le centre peut chiffrer plusieurs messages à plusieurs ensembles des utilisateurs légitimes “en même temps”. Nous appelons cette nouvelle primitive la diffusion de données chiffrés multi-chaîne. Nous arrivons à construire un schéma efficace avec les chiffrés de taille constante
In this thesis, we work on the domain of broadcast encryption and tracing traitors. Our contributions can be divided into three parts. We first recall the three tracing models: non-black-box tracing model, single-key black box tracing model, and general black box tracing model. While the last model is the strongest model, the two former models also cover many practical scenarios. We propose an optimal public key traitor tracing scheme in the two first models. We then consider two new advanced attacks (pirate evolution attack and Pirates 2. 0) which were proposed to point out some weaknesses of the schemes in the subset-cover framework, or more generally of combinatorial schemes. Since these schemes have been widely implemented in practice, it is necessary to find some counter-measures to these two types of attacks. In the second contribution, we build two schemes which are relatively efficient and which resist well these two types of attacks. In the last contribution, we study a generalized model for broadcast encryption which we call multi-channel broadcast encryption. In this context, the broadcastor can encrypt several messages to several target sets “at the same time”. This covers many scenarios in practice such as in pay-TV systems in which providers have to send various contents to different groups of users. We propose an efficient scheme with constant size ciphertext
APA, Harvard, Vancouver, ISO, and other styles
38

Randrianajaina, Jean-Hubert. "Contribution à la sécurité des systèmes et réseaux d'information : l'architecture RE.V.E.S. un modèle de processeur de sécurité à base d'anteserveurs répartis." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090057.

Full text
Abstract:
La popularité des serveurs grand public tels que le minitel et le web laisse présager que les entreprises de demain se verront confrontées à une demande de systèmes complexes impliquant des traitements et des données géographiquement repartis, faisant référence à des plates-formes matérielles et logicielles hétérogènes. Les actes de sabotage comme le virus d'internet sont toutefois légion et les questions de sécurité et de confidentialité des réseaux de systèmes informatiques restent un sujet sensible, entretenant en permanence le doute et la méfiance à propos de leur crédibilité. La réponse industrielle à ce problème s'organise actuellement autour des concepts et des mécanismes sécuritaires proposés par trois modèles dominants dont : l'orange book, le standard 7498-2 associé au modèle de référence OSI, et les modèles sécuritaires dans les architectures de systèmes dédiés au traitement reparti (DCE, NCA, ONC, CORBA). Concernant les données sensibles quittant le couvert de leur système d'origine pour être transmises et utilisées dans un milieu juge hostile a priori, le postulat de base est que seule l'utilisation de techniques cryptographiques permet de limiter les risques. Toutefois, comme dans tout processus de mutation technologique, l'implémentation industrielle de tous ces mécanismes mettra probablement un certain temps avant que les entreprises puissent véritablement compter sur des environnements et produits permettant de faire face à la réalité des besoins. Par la proposition d'un protocole d'échanges sécurisé par un frontal de sécurité constitue d'anteserveurs repartis coopérant selon le modèle client/serveur, l'objectif de cette thèse est de suggérer une démarche indépendante des produits, permettant de protéger simplement tout échange au sein d'un serveur multi-agent, hétérogène
The popularity of very large public servers such as Vidéotex and Web Servers foretells that tomorrow’s business corporations will be confronted with a demand based on heterogeneous software and hardware platforms, implicating files, databases, and processes shared across networks. The constant threats of disasters such as Internet Virus are still a concern, invoking permanent doubt towards the credibility of large information networks. Industrial response to this problem seems to revolve around concepts and security measures proposed by three dominant models: Orange Book, OSI standard 7498-2 and the security model of distributed computing standards (DCE,NCA,ONC,CORBA). As for sensitive data transmitted from their original site to hostile environments, cryptography techniques provide the best method of protection. However, as with every technological transition process, the implementation of ail these mechanisms will probably take a considerable amount of time before business can really count on environments and products allowing them to realistically meet their needs. By an interchange protocol secured by a front end entity based on security processes working together according to the client/server model, the objective of this thesis is to put forward an approach independent of products, allowing data security inside ail multi-agent and heterogeneous servers
APA, Harvard, Vancouver, ISO, and other styles
39

Chorfi, Redha. "Abstraction et vérification de programmes informatiques." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25710/25710.pdf.

Full text
Abstract:
Les systèmes informatiques offrent une grande flexibilité aux usagers en leur permettant l’accès, notamment par le biais de réseaux de télécommunication ou de l’Internet, à un vaste éventail de services. Toutefois, certains de ces services sont soumis à de fortes contraintes de sécurité, comme le télépaiement qui est au coeur du commerce électronique. Ainsi, les fournisseurs et les utilisateurs expriment des besoins croissants, et antagonistes, en sécurité. Répondre à ces deux besoins simultanément est un enjeu technologique transversal à de nombreux domaines de l’informatique. L’objectif de ce travail est de développer un mécanisme permettant de garantir la sécurité des systèmes, en s’appuyant sur l’expérience établie dans le domaine de la sécurité et des méthodes formelles. Pour se faire, nous définissons un nouveau cadre de vérification des propriétés de sécurité d’un programme informatique par l’analyse des flots de données et de contrôle construits à partir du code de ce dernier. L’idée principale consiste à définir un modèle pouvant abstraire la trace d’événements et les dépendances de ressources engendrés au moment de l’exécution du programme, et pouvant être soumis à des algorithmes de vérification de modèle (model-checking) pour l’analyse de la sûreté du programme vis-à-vis d’une propriété.
APA, Harvard, Vancouver, ISO, and other styles
40

Aissaoui, Mehrez Hassane. "Sécurité pour les réseaux du futur : gestion sécurisée des identités." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066606.

Full text
Abstract:
Aujourd'hui, l'Internet change radicalement nos habitudes, avec l'arrivée massive du nomadisme, l'internet des objets, l'utilisation croissante de l'informatique en grille, les services Web, les réseaux sociaux et l'émergence de nouvelles approches dans ces dernières années. La virtualisation des infrastructures informatiques et le Cloud Computing ont particulièrement, permis de définir des nouveaux paradigmes, appelés X as a Service (XaaS), introduisant ainsi une rupture assez franche avec les modèles traditionnels, qui sont perçus comme une étape préparatoire vers l'Internet du Futur. En effet, la mise en œuvre de ces paradigmes, permet de mutualiser et de réorganiser le système informatique de manière différente, de dématérialiser les infrastructures physiques, de déporter les systèmes ou les applications sur des conteneurs virtuels distants. Par conséquent, l'architecture globale de l'Internet doit évoluer, en s'appuyant fortement sur ces nouvelles approches, en particulier, le Cloud Computing et la virtualisation. Malheureusement, comme toute technologie nouvelle, elle crée de nouveaux risques, qui viennent se greffer aux problèmes traditionnels : la séparation des privilèges, la gestion des accès, la gestion de l'identité, les failles des logiciels de virtualisation, l'isolation des machines virtuelles (VM), la protection des données personnelles, la vie privée, la réversibilité pendant l'externalisation (Outsourcing), etc. Les services basés sur les Clouds requièrent des fonctions de collaboration inter-fonctionnelles sécurisées ainsi que des systèmes de protection contre l'utilisation abusive des ressources. Ces systèmes doivent être équilibrés de façon raisonnable avec les besoins de confidentialité, d’intégrité, de protection de la vie privée des utilisateurs. Ils doivent permettre l’authentification des utilisateurs sans révéler des informations sur leur identité. Ainsi, une offre de services personnalisés aux clients dans un environnement virtuel et/ou transorganisationnel, en utilisant des mécanismes de sécurité adaptés à des infrastructures traditionnelles, peut prendre une dimension très complexe dans le modèle Cloud Computing, et peut constituer des défis à soulever pour les fournisseurs de ces services. Parmi ces défis à résoudre, la gestion d’identités des ressources, qui constitue un élément crucial pour authentifier les services à consommer, minimiser le risque d’accès frauduleux à des données personnelles, qui peut conduire à des conséquences désastreuses pour une entreprise ou un client. Les solutions existantes sont insuffisantes pour répondre aux défis soulevés par ces nouvelles approches. La mise en œuvre de ces modèles et ces outils posent des défis sécuritaires à la fois d’ordre organisationnel, architectural et protocolaire, pour garantir à chaque client des niveaux de sécurité. Ces niveaux doivent être identifiés pour guider les choix architecturaux et techniques à prendre, pour répondre en particulier aux exigences (LoA : Level of Assurance) et (LoT : Level of Trust), qu’un fournisseur de Cloud doit mettre en place pour garantir et protéger ses ressources. En effet, ces verrous et ces défis sécuritaires vont être relevés dans ce travail de recherche qui se situe dans le cadre du projet sécurité pour les réseaux du futur (SecFuNet : Security for Future Networks). C’est un projet collaboratif entre l’Europe et le Brésil, qui implique neuf partenaires européens répartis sur (la France, la Pologne, l'Allemagne et le Portugal) et 7 partenaires académiques brésiliens. Ce projet a pour ambition de proposer une nouvelle infrastructure de sécurité générale pour la communication des informations des utilisateurs sur Internet. L’objectif principal est de concevoir et développer une nouvelle architecture de sécurité cohérente pour les réseaux virtuels
Today, the Internet is changing radically our habits, especially with the massive influx of the nomadic techniques, the Internet of objects, the growing use of grid computing, wireless networks and the emergence of new approaches in recent years. In particular, the virtualization of the computing infrastructures, which allowed defining a new model called Cloud Computing, introducing an enough frank breakdown with the traditional models, can be perceived as a preparatory stage towards the Internet of future.The implementation of these approaches allows, in a different way : mutualization and organization of the computer system. It allows to dematerialize the physical infrastructures and to deport applications on distant containers. Therefore, the global architecture of Internet should be evolved. It will rely strongly on these new approaches and in particular, Cloud Computing and virtualization. However, no system is infallible especially if resources are distributed and mutualized. They raise a number of problems and involve directly security issues, which remain one of the main barriers to the adoption of these technologies.Like any new technology, Cloud Computing and virtualization create new risks, which come to graft to traditional threats of the outsourcing management of the privilege separation, the identity and accesses management, the robustness of the virtualization software, the virtual machine isolation, the personal data protection, reversibility, privacy... The traditional Internet architecture cannot provide the adequate solutions to the challenges raised by these new approaches: mobility, flexibility, security requirements, reliability and robustness. Thus, a research project (SecFuNet : Security For Future Networks) was validated by the European Commission, to provide some answers, to make a state of the art of these security mechanisms and a comprehensive study of orchestration and integration techniques based on protection components within overall security architecture
APA, Harvard, Vancouver, ISO, and other styles
41

Etrog, Jonathan. "Cryptanalyse linéaire et conception de protocoles d'authentification à sécurité prouvée." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0025.

Full text
Abstract:
Cette thèse, restreinte au cadre de la cryptologie symétrique, s'intéresse à deux aspects séparés de la cryptologie : la protection des messages à l'aide d'algorithmes chiffrement et la protection de la vie privée à travers des protocoles d'authentification. La première partie concerne l'étude de la cryptanalyse linéaire et la seconde la conception de protocoles d'authentification à sécurité prouvée garantissant une forme forte d'intraçabilité. Dans la première partie, nous nous intéressons à la cryptanalyse linéaire qui bien qu'introduite au début des années 90 a connu récemment un nouvel essor dû au développement de nouvelles variantes. Nous nous sommes à la fois intéressés à son aspect pratique et théorique. Dans un premier temps, nous présentons une cryptanalyse d'une version réduite de SMS4, algorithme utilisé dans le chiffrement du WiFi chinois puis nous introduisons la cryptanalyse multilinéaire et décrivons une nouvelle forme de cryptanalyse multilinéaire. La deuxième partie concerne l'étude de protocoles d'authentification RFID respectant la vie privée. Nous définissons un modèle d'attaquant permettant de formaliser les notions de sécurité relatives à ces protocoles. Nous proposons ensuite deux protocoles réalisant chacun un compromis entre l'intraçabilité forte et la résistance aux attaques par déni de service et admettant des implantations à bas coût et établissons des preuves de sécurité dans le modèle standard pour ces deux protocoles
This Ph. D, devoted to symmetric cryptography, addresses two separate aspects of cryptology. First, the protection of messages using encryption algorithms and, second, the protection of privacy through authentication protocols. The first part concerns the study of linear cryptanalysis while the second is devoted to the design of authentication protocols with proven security. Although introduced in the early 90s, linear cryptanalysis has recently experienced a revival due to the development of new variants. We are both interested in its practical and theoretical aspects. First, we present a cryptanalysis of a reduced version of SMS4, the encryption algorithm used in WiFi in China then, second, we introduce multilinear cryptanalysis and describe a new form of multilinear cryptanalysis. The second part of the thesis concerns the study of RFID authentication protocols respecting privacy. We define a model to formalize the notions of security for these protocols. Then we propose two protocols, each one performing a compromise between strong unlinkability and resistance to denial of service attacks, which allow low-cost implementations. We establish security proofs in the standard model for these two protocols
APA, Harvard, Vancouver, ISO, and other styles
42

Dallot, Léonard. "Sécurité de protocoles cryptographiques fondés sur les codes correcteurs d'erreurs." Caen, 2010. http://www.theses.fr/2010CAEN2047.

Full text
Abstract:
La cryptographie fondée sur les codes correcteurs d'erreurs est apparue en 1968, dès les premières années de la cryptographie à clef publique. L'objet de cette thèse est l'étude de la sécurité de constructions cryptographiques appartenant à cette famille. Après avoir introduit des notions de cryptographie à clef publique et de sécurité réductionniste, nous présentons une étude rigoureuse de la sécurité réductionniste de trois schémas de chiffrement fondés sur les codes correcteurs d'erreurs : le schéma de McEliece, la variante de Niederreiter et un schéma hybride proposé par N. Sendrier et B. Biswas. Le bien-fondé de cette démarche est ensuite illustré par les cryptanalyses de deux variantes du schéma de McEliece visant à réduire la taille des clefs nécessaires pour assurer la confidentialité des échanges. Nous présentons ensuite une preuve réductionniste de la sécurité d'un schéma de signature proposé en 2001 par N. Courtois, M. Finiasz et N. Sendrier. Pour y parvenir, nous montrons qu'il est nécessaire de modifier légèrement le schéma. Enfin, nous montrons que les techniques utilisées pour construire le schéma précédent peuvent être également utilisées pour construire un schéma de signature de cercles à seuil prouvé sûr
Code-based cryptography appeared in 1968, in the early years of public-key cryptography. The purpose of this thesis is the study of reductionist security of cryptographic constructions that belong to this category. After introducing some notions of cryptography and reductionist security, we present a rigorous analysis of reductionist security of three code-based encryption scheme : McEliece's cryptosystem, Niederreiter's variant and a hybrid scheme proposed by N. Sendrier and B. Biswas. The legitimacy of this approach is next illustrated by the cryptanalysis of two variants of McEliece's scheme that aim at reducing the size of the keys necessary for ensure communication confidentiality. Then we present a reductionist security proof of a signature scheme proposed in 2001 by N. Courtois, M. Finiasz and N. Sendrier. In order to manage this, we show that we need to slightly modify the scheme. Finally, we show that technics used in the previous scheme can also be used to build a provably secure threshold ring signature scheme
APA, Harvard, Vancouver, ISO, and other styles
43

Christofi, Maria. "Preuves de sécurité outillées d’implémentations cryptographiques." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0029.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à la vérification formelle des implémentations cryptographiques. Dans la première partie, nous étudions la vérification du protocole mERA à l’aide d’outil ProVerif. Nous vérifions que ce protocole assure certaines propriétés de sécurité, notamment l’authentification, le secret et la non-reliabilité, ainsi que des propriétés comme la vivacité du protocole. Dans la deuxième partie de cette thèse, nous étudions la vérification formelle des implémentations cryptographiques vis-à-vis d’un certain type d’attaque: les attaques par injection de faute modifiant les données. Nous identifions et présentons les différents modèles de ce type d’attaque en tenant en compte plusieurs paramètres. Ensuite, nous modélisons des implémentations cryptographiques (munies de contremesures), nous injectons tous les scenarios de fautes possibles et finalement nous vérifions le code correspondant à l’aide d’outil Frama-C, basé sur l’analyse statique. Nous présentons une application de notre méthode : la vérification d’une implémentation RSA-CRT munie de la contremesure de Vigilant (CHES 2008). Après avoir exprimé les propriétés nécessaires pour la vérification, nous injectons tous les scenarios de fautes possibles (en tenant compte d’un modèle de faute choisi). Cette vérification révèle deux scenarios de fautes provoquant deux attaques susceptibles à fuir des informations secrètes. Afin de mécaniser la vérification, nous avons réussi à automatiser complètement l’insertion des fautes selon les différents modèles (en tenant en compte les attaques mono-fautes, ainsi que les multi-fautes). Ceci a donné naissance à un nouveau plug-in de Frama-C : TL_FACE
In this thesis, we are interested on the formal verification of cryptographic implementations. In the first part, we study the verification of the protocol mERA using the tool ProVerif. We prove that this protocol verifies some security properties, like the authentication, the secrecy and the unlinkability, but also properties like its vivacity. In the second part of this thesis, we study the formal verification of cryptographic implementations against an attack family: attacks with fault injection modifying data. We identify and present the different models of these attacks considering different parameters. We then model the cryptographic implementation (with its countermeasures), we inject all possible fault scenarios and finally we verify the corresponding code using the Frama-C tool, based on static analysis techniques. We present a use case of our method: the verification of an CRT-RSA implementation with Vigilant’s countermeasure. After expressing the necessary properties for the verification, we inject all fault scenarios (regarding the chosen fault model). This verification reveals two fault scenarios susceptible to flow secret information. In order to mechanize the verification, we insert fault scenarios automatically according to both single and multi fault attacks). This creates a new Frama-C plug-in: TL-FACE
APA, Harvard, Vancouver, ISO, and other styles
44

Feix, Benoît. "Implémentations Efficaces de Crypto-systèmes Embarqués et Analyse de leur Sécurité." Limoges, 2013. https://aurore.unilim.fr/theses/nxfile/default/19ba2f73-2b7f-42ed-8afc-794a4b0c7604/blobholder:0/2013LIMO4062.pdf.

Full text
Abstract:
La cryptographie est désormais un terme quasi omniprésent dans notre quotidien quel que soit l'intérêt que tout un chacun puisse porter à cette science. Elle représente aujourd'hui un rempart entre nous et les intrusions des pirates ou des institutions sans retenues qui ne se préoccupent guère du respect de notre vie privée. La cryptographie peut protéger nos données personnelles que nous stockons sur de multiples supports numériques solides, voire nuageux pour les plus téméraires. Mais utiliser des mécanismes cryptographiques ne suffit pas. Il faut également les implémenter de telle sorte que leur utilisation soit résistante à une catégorie d'attaques particulière nommées les attaques physiques. Depuis 1996, date de leur divulgation dans le domaine public, ces techniques d'attaques se sont diversifiées et continuellement améliorées donnant notamment lieu à de nombreuses publications et brevets. Nous présentons dans les travaux qui suivent, de nouvelles techniques d'attaques physiques que nous avons pu valider et tester de manières théorique et pratique. Nous introduirons des techniques d'attaques par canaux auxiliaires innovantes tirant parti au maximum de l'information fournie par une seule exécution d'un calcul cryptographique. Nous détaillerons également de nouvelles attaques CoCo (Collision Correlation) appliquées à deux des standards cryptographiques les plus utilisés : l'AES et le RSA. Nous utiliserons les techniques d'injection de fautes pour monter de nouvelles attaques combinées sur des implémentations de l'AES et du RSA. Nous introduirons ensuite des méthodes de génération de nombres premiers dites générations prouvées qui s'avèrent efficaces et propices à un usage dans des composants de type carte à puce. Et enfin nous conclurons ce mémoire par la première méthode d'exponentiation sécurisée Carré Toujours
Cryptography has become a very common term in our daily life even for those that are not practising this science. It can represent today an efficient shield that prevent us from hackers' or other non-respectable entities' intrusions in our privacy. Cryptography can protect the personal data we store on many physical numerical supports or even cloudy ones for the most intrepid people. However a secure usage cryptography is also necessary. Cryptographic algorithms must be implemented such that they contain the right protections to defeat the category of physical attacks. Since the first article has been presented on this subject in 1996, different attack improvements, new attack paths and countermeasures have been published and patented. We present the results we have obtained during the PhD. New physical attacks are presented with practical results. We are detailing innovative side-channel attacks that take advantage of all the leakage information present in a single execution trace of the cryptographic algorithm. We also present two new CoCo (Collision Correlation) attacks that target first order protected implementations of AES and RSA algorithms. We are in the next sections using fault-injection techniques to design new combined attacks on different state of the art secure implementation of AES and RSA. Later we present new probable prime number generation method well suited to embedded products. We show these new methods can lead to faster implementations than the probabilistic ones commonly used in standard products. Finally we conclude this report with the secure exponentiation method we named Square Always
APA, Harvard, Vancouver, ISO, and other styles
45

Treger, Joana. "Etude de la sécurité de schémas de chiffrement par bloc et de schémas multivariés." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0015.

Full text
Abstract:
La thèse se compose de deux parties. La première partie relate de l'étude de schémas de chiffrement par blocs, notamment les schémas de Feistel avec permutations internes et les schémas du type Misty. Le cadre de l'étude est générique, i. E. Les permutations internes sont supposées aléatoires. Ceci permet d'obtenir des propriétés de la structure même des schémas, sans prendre en compte leur contexte d'utilisation. Cette partie focalise sur les attaques génériques sur ces deux schémas. La deuxième partie concerne l'étude de cryptosystèmes multivariés. Une propriété de la différentielle de la clé publique du schéma HM est exhibée, fournissant un distingueur. Par ailleurs, une attaque par bases de Gröbner permet d'inverser le système efficacement. Nous exposons également une attaque sur le schéma HFE, permettant le recouvrement de la clé privée pour une famille d'instances particulières, classées à présent comme "clés faibles"
The thesis is made up of two parts. The first one deals with the study of bloc ciphers, Feistel networks with internal permutations and Misty-like schemes. The context is generic, in the sense that the internal permutations are supposed random. His allows to obtain properties that only concern the structure of the scheme and do not depend on any particular application. This part focuses on generic attacks on these two schemes. The second part is about multivariate cryptosystems. A differential property of the public key of HM is shown, allowing to get an efficient distinguisher. Moreover, we can invert the system by using Gröbner bases. We also describe a key-recovery attack on HFE, which works for a family of key instances, now called "weak keys"
APA, Harvard, Vancouver, ISO, and other styles
46

Challal, Yacine. "Sécurité dans les communications de groupe." Compiègne, 2005. http://www.theses.fr/2005COMP1561.

Full text
Abstract:
Les avantages qu'offre IP multicast pour les communications multi-parties, telles que : l'économie de bande passante, la simplicité et l'efficacité, sont typiquement intéressants pour de nouveaux services combinant la voix, la vidéo et le texte sur Internet. Par ailleurs, la demande des fournisseurs d'accès à Internet et les distributeurs de contenus pour le multicast est de plus en plus importante. C'est pourquoi, le déploiement à large échelle de ce modèle de communication devient un besoin urgent. Malheureusement, les avantages d'IP multicast alimentent ses faiblesses en terme de sécurité. Effectivement, l'adhésion ouverte et anonyme, ainsi que la nature distribuée du multicast, présentent de sérieuses menaces en terme de sécurité pour ce modèle de communication. Plusieurs travaux de recherche ont été conduits afin de remédier à ces problèmes de sécurité en proposant des contre-mesures telles que : le contrôle d'accès, la confidentialité, authentification, et le tatouage. Dans cette thèse, nous traitons deux aspects fondamentaux de toute architecture de multicast sécurisé, qui sont la confidentialité et l'authentification de l'origine des données multicast. Pour chacun de ces deux thèmes, nous présenterons une analyse détaillée du problème tout en mettant en évidence les problèmes et les caractéristiques inhérents à la nature du multicast. Puis, nous présenterons les solutions existantes dans la littérature tout en analysant leurs avantages et leurs inconvénients. Enfin, nous présenterons nos propres propositions, ainsi que leurs avantages par rapport aux solutions existantes
The advantages of IP multicast in multi-party communications, such as saving bandwidth, simplicity and efficiency, are very interesting for new services combining voire, video and text over Internet. This urges the effective large scale deployment of multicasting to satisfy the increasing demand for multicasting from both Internet Service Providers (ISPs) and Content Distributors. Unfortunately, the strengths of IP multicast are also its security weaknesses. Indeed, the open and anonymous membership and the distributed nature of multicasting are serious threats to the security of this communication mode!. Much effort has been conducted to address the many issues relating to securing multicast data transmission, such as: access control, confidentiality, authentication and watermarking. Ln this thesis we deal with the two keystone security issues of any secure multicast architecture: data origin authentication and confidentiality. For each theme, we present a detailed analysis of the problem while highlighting special features and issues inherent to the multicast nature. Then, we review existing solutions in the literature and analyze their advantages and shortcomings. Finally, we provide our own original proposaIs, depicting their advantages over the previous solutions
APA, Harvard, Vancouver, ISO, and other styles
47

Besson, Frédéric. "Résolution modulaire d'analyses de programmes : application à la sécurité logicielle." Rennes 1, 2002. http://www.theses.fr/2002REN1A114.

Full text
Abstract:
L'analyse statique désigne des méthodes automatiques pour extraire des propriétés des programmes. Malheureusement, les ordinateurs n'ont souvent pas les ressources suffisantes pour analyser de gros programmes. Pour remédier à ce problème, nous proposons une méthodologie d'analyse modulaire qui calque la structure de l'analyse sur la structure de modules des programmes. Dans ce cadre, chaque fragment de programme est analysé séparément. De fait, le coût d'analyse est factorisé et une part de l'analyse globale est calculée à l'avance. Dans cette thèse, nous avons défini ce qu'était une méthode de résolution modulaire et identifié la notion de résolution modulaire optimale. Nous avons appliqué ces principes théoriques à une analyse de flot de contrôle et à une analyse de sécurité. Dans ces deux cas, nous avons proposé des approximations et/ou des restrictions pour assurer la terminaison de la résolution modulaire optimale. Notre conviction est que toute analyse s'adapte à notre cadre.
APA, Harvard, Vancouver, ISO, and other styles
48

Dinh, Ngoc Tu. "Walk-In : interfaces de virtualisation flexibles pour la performance et la sécurité dans les datacenters modernes." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES002.

Full text
Abstract:
La virtualisation est un outil puissant conférant de nombreuses avantages pour la sécurité, l'efficacité et la gestion des systèmes informatiques. Par conséquent, la virtualisation est largement utilisée dans les infrastructures informatiques modernes. Cependant, les couches matérielles et logicielles supplémentaires posent de nouveaux défis aux administrateurs systèmes. Dans cette thèse, nous présentons notre analyse des défis liés à la virtualisation. Nous constatons que les nombreux composants de virtualisation doivent être tenus à jour, ce qui complique fortement la maintenance logicielle. Deuxièmement, nous remarquons que la virtualisation masque les spécificités du matériel. Enfin, elle réduit les performances des systèmes du fait de la coordination entre les logiciels impliqués par la virtualisation. Nous étudions trois approches pour relever les défis présentés ci-dessus en augmentant la flexibilité de la pile de logiciels de virtualisation. - Notre première contribution concerne la maintenabilité et la sécurité des plateformes de machines virtuelles en tenant compte du besoin de les maintenir à jour. Nous présentons notre cadre "HyperTP" pour la mise à jour des hyperviseurs et l'atténuation des vulnérabilités pendant le délai entre leur découverte et leur correction. - Notre deuxième contribution concerne la perte de performance résultant du manque de visibilité des topologies NUMA dans les machines virtuelles. Nous étudions la performance des charges de travail d'E/S virtuelles afin de déterminer une politique d'allocation des ressources pour l'optimisation des E/S. - Notre troisième contribution concerne la virtualisation des systèmes de stockage à haute performance. Nous présentons la plateforme de stockage NVM-Router, qui permet la réalisation de fonctions de stockage performantes grâce à sa flexibilité et à sa facilité d'utilisation. En résumé, nos contributions montrent les compromis présents dans les configurations des machines virtuelles, ainsi que la réduction des coûts de virtualisation par la manipulation dynamique de ces configurations
Virtualization is a powerful tool that brings numerous benefits for the security, efficiency and management of computer systems. Modern infrastructure therefore makes heavy use of virtualization in almost every software component. However, the extra hardware and software layers present various challenges to the system operator. In this work, we analyze and identify the challenges relevant to virtualization. Firstly, we observe a complexification of maintenance from the numerous software layers that must be constantly updated. Secondly, we notice a lack of transparency on details of the underlying infrastructure from virtualization. Thirdly, virtualization has a damaging effect on system performance, stemming from how the layers of virtualization have to be navigated during operation. We explore three approaches of solving the challenges of virtualization through adding flexibility into the virtualization stack. - Our first contribution tackles the issue of maintainability and security of virtual machine platforms caused by the need to keep these platforms up-to-date. We introduce HyperTP, a framework based on the hypervisor transplant concept for updating hypervisors and mitigating vulnerabilities. - Our second contribution focuses on performance loss resulting from the lack of visibility of non-uniform memory access (NUMA) topologies on virtual machines. We thoroughly evaluate I/O workloads on virtual machines running on NUMA architectures, and implement a unified hypervisor-VM resource allocation strategy for optimizing virtual I/O on said architectures. - For our third work, we focus our attention on high-performance storage subsystems for virtualization purposes. We present NVM-Router, a flexible yet easy to use virtual storage platform that supports the implementation of fast yet efficient storage functions. Together, our solutions demonstrate the tradeoffs present in the configuration spaces of virtual machine deployments, as well as how to reduce virtualization overhead through dynamic adjustment of these configurations
APA, Harvard, Vancouver, ISO, and other styles
49

Hachana, Safaà. "Techniques de rôle mining pour la gestion de politiques de sécurité : application à l'administration de la sécurité réseau." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0017/document.

Full text
Abstract:
Cette thèse est consacrée à une approcheascendante pour l’administration de la sécurité desréseaux informatiques d’un haut niveau d’abstraction.Nous montrons que le modèle Net-RBAC (Network RoleBased Access Control) s'adapte à la spécification despolitiques de contrôle d’accès des réseaux. Nousproposons une approche ascendante et automatiquebaptisée policy mining qui extrait la politique modéliséepar Net-RBAC à partir des règles de sécurité déployéessur un pare-Feu. Notre algorithme basé sur lafactorisation matricielle est capable d’adapter la plupartdes techniques de role mining existantes. Comme lesréseaux des entreprises sont souvent protégés parplusieurs pare-Feu, nous traitons le problèmed’intégration de politiques résultant de l’application depolicy mining sur chaque pare-Feu. Nous vérifions lespropriétés de sécurité reliées à la cohérence dudéploiement de la politique sur plusieurs dispositifs. Enoutre, nous proposons des outils qui assistent unadministrateur dans l’analyse des résultats du role mininget du policy mining. Nous formalisons le problème decomparaison de deux configurations de rôles et prouvonsqu'il est NP-Complet. Nous définissons un algorithme quiprojette les rôles d’une configuration dans une autre ense basant sur des expressions Booléennes. Noussoulignons que la présence de rôles ombragés dans uneconfiguration se manifeste par une augmentation de lacomplexité de la comparaison avec une autreconfiguration et présentons une solution pour détecterdifférentes anomalies d’ombrage. Chaque contribution sebase sur un cadre théorique solide, est illustrée par desexemples réels, et appuyée par des résultatsexpérimentaux
This thesis is devoted to a bottom-Up approachfor the management of network security policies fromhigh abstraction level with low cost and high confidence.We show that the Network Role Based Access Control(Net-RBAC) model is adapted to the specification ofnetwork access control policies. We propose policymining, a bottom-Up approach that extracts from thedeployed rules on a firewall the corresponding policymodeled with Net-RBAC. We devise a generic algorithmbased on matrix factorization, that could adapt most ofthe existing role mining techniques to extract instancesof Net-RBAC. Furthermore, knowing that the large andmedium networks are usually protected by multiplefirewalls, we handle the problem of integration of Net-RBAC policies resulting from policy mining over severalfirewalls. We demonstrate how to verify securityproperties related to the deployment consistency overthe firewalls. Besides, we provide assistance tools foradministrators to analyze role mining and policy miningresults as well. We formally define the problem ofcomparing sets of roles and evidence that it is NPcomplete.We devise an algorithm that projects rolesfrom one set into the other set based on Booleanexpressions. This approach is useful to measure howcomparable the two configurations of roles are, and tointerpret each role. Emphasis on the presence ofshadowed roles in the role configuration will be put as itincreases the time complexity of sets of rolescomparison. We provide a solution to detect differentcases of role shadowing. Each of the abovecontributions is rooted on a sound theoreticalframework, illustrated by real data examples, andsupported by experiments
APA, Harvard, Vancouver, ISO, and other styles
50

Van, Le. "Gridsec : une architecture sécurisée pour le grid computing." Besançon, 2003. http://www.theses.fr/2003BESA2028.

Full text
Abstract:
Les grilles de calcul se développent de plus en plus et sont de plus en plus puissantes. Ce concept est utilisé aussi bien pour des calculs intensifs que pour l'exécution d'applications à grance échelle. L'accès aux ressources ne doit pas être limité par l'hétérogénéité des machines et des réseaux interconnectés. Les données qui traversent ces nombreux réseaux doivent être sécurisées. Dans ce document, nous présentons GRIDSec, une architecture sécurisée permettant d'identifier et d'authentifier un site auprès des autres, sans pour autant entraver l'autorité des entités locales. GRIDSec se base sur l'authentification du site (i. E. Du participant) et protège les échanges sans affecter la compatibilité des protocoles existants ni les performances. GRIDSec utilise les fonctions de sécurité de DNSSec de façon inhabituelle: nous avons transformé un serveur DNS en un serveur de distribution de clés. Nous avons utilisé SSH pour protéger la phase d'authentification et d'échange de clés. Une fois les serveurs authentifiés, nous avons utilisé IPSec pour protéger les données. Notre système de sécurité est validé d'une part en simulant une application distribuée à l'aide de SimGrid et d'autre part à l'aide de résultats expérimentaux. Des tests de performances montrent le faible coût des mécanismes mis en oeuvre.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography