Дисертації з теми "Systèmes informatiques – Mesures de sûreté – Offuscation (informatique)"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Systèmes informatiques – Mesures de sûreté – Offuscation (informatique).

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Systèmes informatiques – Mesures de sûreté – Offuscation (informatique)".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Badier, Hannah. "Transient obfuscation for HLS security : application to cloud security, birthmarking and hardware Trojan defense." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2021. https://tel.archives-ouvertes.fr/tel-03789700.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mondialisation croissante de la chaîne d'approvisionnement des semi-conducteurs, ainsi que la complexité et la diversité croissantes des flux de conception de matériel, ont entraîné une recrudescence des menaces de sécurité : risques de vol et de revente de propriété intellectuelle, de rétro-ingénierie et d'insertion de code malveillant sous la forme de chevaux de Troie pendant la fabrication et au moment de la conception ont fait l'objet d'une recherche croissante ces dernières années. Cependant, les menaces lors de la synthèse de haut niveau (HLS), où une description algorithmique est transformée en une implémentation matérielle de niveau inférieur, n'ont été envisagées que récemment, et peu de solutions ont été proposées jusqu'à présent. Dans cette thèse, nous nous concentrons sur la sécurisation des conceptions lors de la synthèse comportementale à l'aide d'un outil HLS basé sur le cloud ou interne, mais non fiable. Nous introduisons une nouvelle méthode de protection au moment de la conception appelée offuscation, où le code source de haut niveau est obscurci à l'aide de techniques basées sur des clés, et désobscurci après HLS au niveau du transfert de registre. Cette méthode en deux étapes garantit une fonctionnalité de conception correcte et une faible surcharge de conception. Nous proposons trois façons d'intégrer l'offuscation transitoire dans différents mécanismes de sécurité. Tout d'abord, nous montrons comment il peut être utilisé pour empêcher le vol de propriété intellectuelle et la réutilisation illégale dans un scénario HLS basé sur le cloud. Ensuite, nous étendons ce travail au filigranes numériques, en exploitant les effets secondaires de l'offuscation transitoire sur les outils HLS pour identifier les conceptions volées. Enfin, nous montrons comment cette méthode peut également être utilisée contre les chevaux de Troie matériels, à la fois en empêchant l'insertion et en facilitant la détection
The growing globalization of the semiconductor supply chain, as well as the increasing complexity and diversity of hardware design flows, have lead to a surge in security threats: risks of intellectual property theft and reselling, reverse-engineering and malicious code insertion in the form of hardware Trojans during manufacturing and at design time have been a growing research focus in the past years. However, threats during highlevel synthesis (HLS), where an algorithmic description is transformed into a lower level hardware implementation, have only recently been considered, and few solutions have been given so far. In this thesis, we focus on how to secure designs during behavioral synthesis using either a cloud-based or an internal but untrusted HLS tool. We introduce a novel design time protection method called transient obfuscation, where the high-level source code is obfuscated using key-based techniques, and deobfuscated after HLS at register-transfer level. This two-step method ensures correct design functionality and low design overhead. We propose three ways to integrate transient obfuscation in different security mechanisms. First, we show how it can be used to prevent intellectual property theft and illegal reuse in a cloud-based HLS scenario. Then, we extend this work to watermarking, by exploiting the side-effects of transient obfuscation on HLS tools to identify stolen designs. Finally, we show how this method can also be used against hardware Trojans, both by preventing insertion and by facilitating detection
2

Szlifierski, Nicolas. "Contrôle sûr de chaînes d'obfuscation logicielle." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0223.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’obfuscation de code est une technique de protection de programme qui consiste à rendre la rétro-ingénierie d’un programme plus difficile, afin de protéger des secrets, de la propriété intellectuelle, ou de compliquer la détection (malware). L’obfuscation est généralement effectuée à l’aide d’un ensemble de transformations sur le programme cible. L’obfuscation est également souvent utilisée en conjonction avec d’autres techniques de protection de programmes telles que le watermarking ou le tamperproofing. Ces transformations sont généralement intégrées dans les transformations de code appliquées pendant le processus de compilation, comme les optimisations. Cependant, appliquer des transformations d’obfuscation demande plus de préconditions sur le code et de précisions dans l’application pour offrir un compromis performance/sécurité acceptable ce qui rend les compilateurs traditionnels peu adaptés à l’obfuscation. Pour répondre à ces problèmes, cette thèse propose SCOL, un langage qui permet de décrire le processus de compilation d’un programme en prenant en compte les problématiques spécifiques à l’obfuscation. Celui-ci permet de décrire des chaînes de compilation avec un haut niveau d’abstraction, tout en permettant une précision élevée sur la composition des transformations. Le langage possède un système de types qui permet de vérifier la cohérence de la chaîne de compilation. C’est-à-dire que vérifier que la composition des transformations permet d’obtenir le niveau de protection et de couverture visé
Code obfuscation is a software protection technique that is designed to make reverse engineering a program more challenging, in order to protect secrets, intellectual property, or to complicate detection (malware). The obfuscation is generally carried out using a set of transformations on the target program. Obfuscation is also often used in conjunction with other software protection techniques, such as watermarking or tamperproofing. These transformations are usually integrated into code transformations applied during the compilation process, such as optimisations. However, the application of obfuscation transformations requires more preconditions on the code and more precision in the application to provide an acceptable performance/safety trade-off, making traditional compilers unsuitable for obfuscation. To address these problems, this thesis presents SCOL, a language that is able to describe the process of compiling a program while considering the specific problems of obfuscation. This allows you to describe compilation chains with a high level of abstraction, while allowing a high degree of accuracy on the composition of the transformations. The language has a type system which checks the correctness of the compilation chain. That means that the composition of transformations provides the targeted level of protection and coverage
3

Cecchetto, Sylvain. "Analyse du flot de données pour la construction du graphe de flot de contrôle des codes obfusqués." Thesis, Université de Lorraine, 2021. http://www.theses.fr/2021LORR0042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’augmentation des cyberattaques dans le monde fait de l’analyse des codes malveillants un domaine de recherche prioritaire. Ces logiciels utilisent diverses méthodes de protection, encore appelées obfuscations, visant à contourner les antivirus et à ralentir le travail d’analyse. Dans ce contexte, cette thèse apporte une solution à la construction du Graphe de Flot de Contrôle (GFC) d’un code binaire obfusqué. Nous avons développé la plateforme BOA (Basic blOck Analysis) qui effectue une analyse statique d’un code binaire protégé. Pour cela, nous avons défini une sémantique s’appuyant sur l’outil BINSEC à laquelle nous avons ajouté des continuations. Ces dernières permettent d’une part de contrôler les auto-modifications, et d’autre part de simuler le système d’exploitation pour traiter les appels et interruptions système. L’analyse statique est faite en exécutant symboliquement le code binaire et en calculant les valeurs des états du système à l’aide de solveur SMT. Ainsi, nous effectuons une analyse du flot de données afin de construire le GFC en calculant les adresses de transfert. Enfin, la gestion des boucles est réalisée en transformant un GFC en un automate à pile. BOA est capable de calculer les adresses des sauts dynamiques, de détecter les prédicats opaques, de calculer les adresses de retour sur une pile même si elles ont été falsifiées, de gérer les falsifications des gestionnaires d’interruption, reconstruire à la volée les tables d’importation, et pour finir, de gérer les auto-modifications. Nous avons validé la correction de BOA en utilisant l’obfuscateur de code Tigress. Ensuite, nous avons testé BOA sur 35 packers connus et nous avons montré que dans 30 cas, BOA était capable de reconstruire complètement ou partiellement le binaire initialement masqué. Pour finir, nous avons détecté les prédicats opaques protégeant XTunnel, un malware utilisé lors des élections américaines de 2016, et nous avons partiellement dépacké un échantillon du cheval de Troie Emotet, qui, le 14/10/2020 n’était détecté que par 7 antivirus sur les 63 que propose VirusTotal. Ce travail contribue au développement des outils d’analyse statique des codes malveillants. Contrairement aux analyses dynamiques, cette solution permet une analyse sans exécution du binaire, ce qui offre un double avantage : d’une part une approche statique est plus facile à déployer, et d’autre part le code malveillant n’étant pas exécuté, il ne peut pas prévenir son auteur
The increase in cyber-attacks around the world makes malicious code analysis a priority research area. This software uses various protection methods, also known as obfuscations, to bypass antivirus software and slow down the analysis process. In this context, this thesis provides a solution to build the Control Float Graph (CFG) of obfuscated binary code. We developed the BOA platform (Basic blOck Analysis) which performs a static analysis of a protected binary code. For this, we have defined a semantics based on the BINSEC tool to which we have added continuations. These allow on one hand to control the self-modifications, and on the other hand to simulate the operating system to handle system calls and interruptions. The static analysis is done by symbolically executing the binary code and calculating the values of the system states using SMT solvers. Thus, we perform a data flow analysis to build the CFG by calculating the transfer addresses. Finally, loop handling is performed by transforming a CFG into a pushdown automaton. BOA is able to compute dynamic jump addresses, to detect opaque predicates, to compute return addresses on a stack even if they have been falsified, to manage interrupt handler falsifications, to rebuild import tables on the fly, and finally, to manage self-modifications. We validated the BOA correction using the Tigress code obfuscator. Then, we tested BOA on 35 known packers and showed that in 30 cases, BOA was able to completely or partially rebuild the initially protected binary. Finally, we detected the opaque predicates protecting XTunnel, a malware used during the 2016 U.S. elections, and we partially unpacked a sample of the Emotet Trojan, which on 14/10/2020 was detected by only 7 antivirus programs out of the 63 offered by VirusTotal. This work contributes to the development of tools for static analysis of malicious code. In contrast to dynamic methods, this solution allows an analysis without executing the binary, which offers a double advantage: on the one hand, a static approach is easier to deploy, and on the other hand, since the malicious code is not executed, it cannot warn its author
4

Gonzalvez, Alexandre. "Affiner la déobfuscation symbolique et concrète de programmes protégés par des prédicats opaques." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2020. http://www.theses.fr/2020IMTA0187.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une forte demande existe aujourd’hui pour améliorer les techniques avancées d’obfuscation et de déobfuscation, dans le but d’éviter le vol de propriétés intellectuelles ou de perfectionner la défense face aux attaques en cybersécurité. Les travaux réalisés au cours de cette thèse portent sur la consolidation de la déobfuscation réalisée par des outils d’analyse symbolique et concrète de programmes protégés par des prédicats opaques. Ces outils s’appuient sur des outils d’analyse automatisée de programmes (moteur d’exécution symbolique dynamique) qui utilisent des solveurs de satisfiabilité modulo théorie (solveurs SMT). Nous souhaitons comprendre plus précisément certaines situations pour lesquelles l’analyse de prédicats effectuée par ces outils est mise en échec, pour ensuite pouvoir proposer des solutions pratiques évitant ces scénarios, et les tester dans des cas réels. C’est pourquoi notre travail se concentre sur la compréhension des concepts de raisonnement automatisé dans une théorie décidable et complète, afin de clarifier les mécanismes de capture de l’information. Nos premiers résultats montrent comment un jeu d’instructions machine assembleur (ISA) autorise l’apparition ou non de prédicats opaques. Nous proposons une amélioration de la détection de prédicats opaques à partir du comportement du solveur SMT. Nous proposons une redéfinition des requêtes SMT pour réduire les effets des prédicats opaques. Nous intégrons ces améliorations dans plusieurs outils automatiques tels que KLEE ou Angr, puis les testons sur différents programmes contenant des prédicats opaques
High demand exists nowadays to improve advanced obfuscation and deobfuscation techniques, with the purpose of preventing intellectual property piracy or improving defence against cyber security attacks. This thesis focuses on the improvement of the deobfuscation achieved by symbolic and concrete analysis tools of protected programs using opaque predicates. These tools rely on automated program analysis tools (dynamic symbolic execution engine) that use Satisfiability Modulo Theory solvers (SMT solvers). To understand more precisely some situations in which the predicate analysis performed by these tools fails, our aim is to be able to identify practical solutions to avoid these scenarios and test them in real cases. First results show how an Instruction Set Assembly (ISA) allows opaque predicates to appear or not. We suggest an improvement of the opaque predicates identification based on the SMT solvers behavior. We suggest a method to reshape SMT queries to reduce the effects of opaque predicates. These features are built into several automated tools such as KLEE or Angr, followed by testing them on different programs which contain opaque predicates
5

Mendy, Norbert Lucien. "Les attaques et la sécurité des systèmes informatiques." Paris 8, 2006. http://www.theses.fr/2006PA082735.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le piratage informatique est apparu avec les premiers micro-ordinateurs vers 1980 et depuis n'a cessé de s'amplifier. Au début, cette pratique était essentiellement individuelle et ludique. Elle est désormais principalement constituée par les activités des personnes qui, individuellement ou en groupe, avec des motivations très diverses, piratent les ordinateurs des autres. Aujourd'hui, l'explosion des moyens de communications électroniques fait que la sécurité des données concerne sans cesse de nouvelles populations. Cette thèse examine dans un premier temps, d’un point de vue technique et sociologique, les méthodes et procédures d’attaques et de défense en matière de piratage informatique. Dans un second temps, elle expose une théorisation de ces mécanismes d’attaques et de défense, avant de proposer une nouvelle conception de la sécurité qui n’est plus seulement centrée sur des moyens techniques mais également sur la prise en compte de la dimension sociale des attaques et de défense
Hacking activities appeared around 1980 with first personal computers and since did not stop developing. At the beginning, this practice was primarily individual and playful. Now it is mainly made up by the activities of groups, with very various motivations. Today, due to the development of electronic means of communication, data security concerns a wider public. This thesis examines initially, from a technical and sociological point of view, attacks and defense mechanisms, and proposes a new concept of the security which is not only any centered on technical solutions but also takes in consideration the social dimension of the problem
6

Sadde, Gérald. "Sécurité logicielle des systèmes informatiques : aspects pénaux et civils." Montpellier 1, 2003. http://www.theses.fr/2003MON10019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De l'instant de l'attaque logicielle contre le système, jusqu'aux conséquences macro-économiques induites, nous suivrons la propagation du dommage et ses implications juridiques en matière d'obligations et de responsabilité. Cela nous donnera tout d'abord l'occasion d'aborder l'aspect répressif de la sécurité au travers de la sanction pénale de l'acte. Mais tout autant nous nous intéresserons aux relations contractuelles qui vont naître de la prévention du dommage, au travers des mesures prises par la victime, le maître du système, pour protéger ses intérêts. Nous envisagerons les recours qui s'offrent non seulement à ce dernier mais aussi aux utilisateurs du système attaqué, qui subiront parfois un préjudice du fait d'une atteinte, à leurs biens, à la qualité d'un service, ou à leur vie privée. Enfin la sécurité informatique est à nos yeux un impératif d'ordre public et ce sont les dommages potentiels à l'économie dans son ensemble qui concluront donc cette étude.
7

Vache, Géraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000356/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une nouvelle approche pour l’évaluation quantitative de la sécurité des systèmes informatiques. L’objectif de ces travaux est de définir et d’évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l’environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l’état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l’administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d’exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d’obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d’étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l’évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système
This thesis presents a new approach for quantitative security evaluation for computer systems. The main objective of this work is to define and evaluate several quantitative measures. These measures are probabilistic and aim at quantifying the environment influence on the computer system security considering vulnerabilities. Initially, we identified the three factors that have a high influence on system state: 1) the vulnerability life cycle, 2) the attacker behaviour and 3) the administrator behaviour. We studied these three factors and their interdependencies and distinguished two main scenarios based on nature of vulnerability discovery, i. E. Malicious or non malicious. This step allowed us to identify the different states of the system considering the vulnerability exploitation process and to define four measures relating to the states of the system: vulnerable, exposed, compromised, patched and secure. To evaluate these measures, we modelled the process of system compromising by vulnerability exploitation. Afterwards, we characterized the vulnerability life cycle events quantitatively, using real data from a vulnerability database, in order to assign realistic values to the parameters of the models. The simulation of these models enabled to obtain the values of the four measures we had defined. Finally, we studied how to extend the modelling to consider several vulnerabilities. So, this approach allows the evaluation of measures quantifying the influences of several factors on the system security
8

Bascou, Jean-Jacques. "Contribution à la sécurité des systèmes : une méthodologie d'authentification adaptative." Toulouse 3, 1996. http://www.theses.fr/1996TOU30253.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les mecanismes de protection les plus repandus actuellement sur les systemes d'information proposent certaines formes de barrages ne pouvant etre franchis que par des utilisateurs autorises (mots de passe) dans le cas ou ces filtres sont franchis, la plupart des systemes deviennent completement accessibles et a la merci de l'intrus. L'idee directrice de notre travail est d'apporter un complement aux mecanismes d'authentification traditionnels. Ce complement n'a aucunement la pretention d'etre infaillible, mais il permet de generer un facteur de risque dont l'effet peut etre particulierement dissuasif. Notre travail a porte sur l'etude d'une methode de conception d'un outil permettant de confirmer periodiquement l'authenticite d'un sujet agissant sur un systeme d'information donne. Ce complement d'authentification s'exerce apres le passage des mecanismes de securite traditionnels. Cette authentification doit s'effectuer de maniere transparente pour le sujet et peut s'apparenter a une verification comportementale. Le comportement du sujet controle doit correspondre dans une certaine mesure au comportement attendu. Une methode de decomposition arborescente d'un probleme de securite complexe en sous problemes a ete definie. Cette methode permet de resoudre une requete d'authentification en resolvant un certain nombre de sous requetes dont l'equivalence avec la premiere est quantifiee par une approche probabiliste. Les feuilles de l'arborescence representent des requetes fondamentales dont la complexite de resolution peut etre variable. Pour la resolution de requetes fondamentales complexes, nous proposons une strategie de choix de parametres mesurables dont la correlation entre eux est une consequence de l'authenticite du sujet etudie. Des resultats d'experiences sont exposes ensuite. Une premiere experience evoque la conception d'un systeme d'authentification dont le but est de limiter les fraudes bancaires dues a une utilisation illicite des cartes de paiement. Une deuxieme experience concerne l'etude de cas d'un utilisateur de systeme unix dont l'authenticite peut etre confirmee par l'analyse de la vitesse de frappe de son mot de passe par un perceptron, ainsi que par les commandes qu'il utilise
9

Trabelsi, Slim. "Services spontanés sécurisés pour l'informatique diffuse." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004140.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le paradigme de l'informatique diffuse suppose implicitement un modèle d'interaction dynamique qui s'appuie en premier lieu sur la découverte d'applications ambiantes et d'appareils environnants. Quoique la découverte soit au cœur de tels systèmes, en particulier ceux qui s'organisent selon une architecture orientée services, le besoin de sécuriser ce composant critique et la complexité de cette tâche ont été largement sous-estimés, voire négligés jusqu'à aujourd'hui. Cette thèse s'attaque à la conception de protocoles sécurisés et d'architectures fiables pour résoudre les problèmes des techniques actuelles de découverte de service. Après avoir présenté les besoins de sécurité de ce type de protocole, nous proposons trois solutions sécurisées pour la découverte de services correspondant à des degrés divers d'organisation et d'échelle de l'infrastructure sur laquelle le mécanisme est déployé. Nous montrons tout d'abord comment le chiffrement est suffisant pour protéger des architectures décentralisées de type LAN ou WLAN en restreignant l'accès aux messages de découverte diffusés d'après une politique à base d'attributs. Nous proposons ensuite l'utilisation de politiques de découvertes comme concept essentiel à la sécurisation de la découverte de services dans les architectures centralisées qui s'appuient sur un registre comme tiers de confiance. Nous introduisons enfin une architecture pour le déploiement d'un mécanisme de découverte de services sécurisé à plus grande échelle s'appuyant sur un système d'indexation pair à pair accessible via une couche de routage anonyme. Dans une deuxième partie de la thèse, nous analysons l'efficacité des mécanismes de découverte de service sécurisée proposés par une étude de performance. Un modèle Markovien est construit afin de calculer différents paramètres de performances liées à la robustesse, la disponibilité, l'efficacité ou le coût en termes de ressources consommées lors de l'exécution d'un processus de découverte en charge normale aussi bien que soumis à une attaque de déni de service. Nous discutons finalement dans une dernière partie des problèmes de sécurité et de confiance liés à l'introduction de sensibilité contextuelle dans les mécanismes de découverte de service.
10

Saadi, Rachid. "The Chameleon : un système de sécurité pour utilisateurs nomades en environnements pervasifs et collaboratifs." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0040/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’avènement de l’informatique pervasive permet la mise en place d’environnements intelligents et communicants offrant à l’utilisateur la possibilité de faire interagir ses équipements avec son environnement de manière aisée et transparente. La mobilité de l’utilisateur et la multiplication des dispositifs légers et autonomes accentuent et rendent plus complexes les problèmes de sécurité. En effet, la mise en place d’environnements pervasifs permet à l’utilisateur nomade de solliciter ou de communiquer avec d’autres utilisateurs, des ressources ou des services au sein d’environnements ou de domaines qui lui sont inconnus et réciproquement. Les mécanismes et les solutions existants sont inadéquats pour pallier les nouveaux challenges issus principalement des problèmes d’authentification, de contrôle d’accès et de protection de la vie privée. Dans un système aussi fortement distribué et imprédictible, l’existence d’une autorité centralisatrice n’est en effet pas possible. Il est donc nécessaire de rendre la décision d’accès plus autonome et donc répartie. Dans cette thèse, nous défendons l’idée que l’implémentation d’un système de sécurité basé sur la confiance constitue une solution particulièrement adaptée aux environnements pervasifs. Notre travail à conduit à l’élaboration d’une architecture générique de sécurité prenant en charge l’utilisateur depuis l’identification jusqu’à l’attribution de droits d’accès dans des milieux inconnus. Nommée «Chameleon», celle-ci prend en charge les problèmes issus de l’authentification et du contrôle d’accès dans les environnements mobiles et ubiquitaires. La mise en place de notre approche a nécessité l’implémentation d’un nouveau format de certification « X316 » adaptable au contexte de l’utilisateur, ainsi que la définition d’un modèle de confiance inter-organisations (T2D) dont le but est d’étendre le champ d’accès des utilisateurs mobiles aux ressources environnantes
While the trust is easy to set up between the known participants of a communication, the evaluation of trust becomes a challenge when confronted with unknown environment. It is more likely to happen that the collaboration in the mobile environment will occur between totally unknown parties. An approach to handle this situation has long been to establish some third parties that certify the identities, roles and/or rights of both participants in a collaboration. In a completely decentralized environment, this option is not sufficient. To decide upon accesses one prefer to rely only on what is presented to him by the other party and by the trust it can establish, directly by knowing the other party or indirectly, and vice-versa. Hence a mobile user must for example present a set of certificates known in advance and the visited site may use these certificates to determine the trust he can have in this user and thus potentially allow an adapted access. In this schema the mobile user must know in advance where she wants to go and what she should present as identifications. This is difficult to achieve in a global environment. Moreover, the user likes to be able to have an evaluation of the site she is visiting to allow limited access to her resources. And finally, an user does not want to bother about the management of her security at fine grain while preserving her privacy. Ideally, the process should be automatized. Our work was lead to define the Chameleon architecture. Thus the nomadic users can behave as chameleons by taking the "colors" of their environments enriching their nomadic accesses. It relies on a new T2D trust model which is characterized by support for the disposition of trust. Each nomadic user is identified by a new morph certification model called X316. The X316 allows to carry out the trust evaluation together with the roles of the participants while allowing to hide some of its elements, preserving the privacy of its users
11

Maingot, Vincent. "Conception sécurisée contre les attaques par fautes et par canaux cachés." Grenoble INPG, 2009. https://tel.archives-ouvertes.fr/tel-00399450.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
12

Habib, Lionel. "Formalisations et comparaisons de politiques et de systèmes de sécurité." Paris 6, 2011. http://www.theses.fr/2011PA066146.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions le domaine de la sécurité de l'information en s'appuyant sur les méthodes formelles. Nous définissons un cadre sémantique générique qui permet de formaliser et de comparer des politiques et des systèmes de sécurité. Nous décrivons deux approches de formalisation des politiques de sécurité, l'une à base de propriétés, et l'autre à base de règles. De plus, nous montrons de quelle manière nous exprimons des politiques de sécurité administratives selon ces deux approches. Nous présentons la notion de systèmes de sécurité qui consiste à mettre en oeuvre une politique de sécurité par un système de transition. Un système de sécurité peut être obtenu en appliquant une politique de sécurité à un système de transition indépendant, ou en créant un système de transition directement à partir d'une politique de sécurité. Nous introduisons trois préordres qui permettent de comparer des politiques et des systèmes de sécurité. Le préordre sur les politiques de sécurité caractérise une notion de traduction d'information de sécurité, tandis que les deux préordres sur les systèmes de sécurité reposent sur des traductions de labels. Nous appliquons les définitions introduites dans notre cadre en formalisant et en comparant des politiques de contrôle de permissions, d'accès et de flots d'information, des politiques de sécurité administratives, et des systèmes de sécurité. D'autre part, nous mettons en perspective notre travail avec des travaux connexes. Enfin, nous exposons deux applications pratiques réalisées avec l'atelier Focalize, le test d'une politique de contrôle d'accès multi-niveaux, et le développement d'une bibliothèque de politiques de sécurité.
13

Abbes, Tarek. "Classification du trafic et optimisation des règles de filtrage pour la détection d'intrusions." Nancy 1, 2004. http://www.theses.fr/2004NAN10192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons dans cette thèse à des problèmes sensibles rencontrés par la détection d'intrusions à savoir le haut débit, les techniques d'évasion et les fausses alertes. Afin de soutenir le haut débit, nous procédons à une classification du trafic réseau ce qui permet de diviser la charge d'analyse sur plusieurs systèmes de détection d'intrusions et de sélectionner pour chaque classe du trafic la meilleure méthode de détection. Par ailleurs nous réduisons le temps de traitement de chaque paquet en organisant convenablement les règles de détection d'attaques stockées sur les systèmes de détection d'intrusions. Au cours de cette analyse nous proposons un filtrage à la volée de plusieurs signatures d'attaques. Ainsi, nous évitons le réassemblage du trafic qui était auparavant nécessaire pour résister aux techniques d'évasion. Par ailleurs nous assurons une analyse protocolaire avec des arbres de décisions ce qui accélère la détection des attaques et évite les inconvénients du filtrage brut de motifs telles que la génération abondante des faux positifs
In this dissertation we are interested by some bottlenecks that the intrusion detection faces, namely the high load traffic, the evasion techniques and the false alerts generation. In order to ensure the supervision of overloaded networks, we classify the traffic using Intrusion Detection Systems (IDS) characteristics and network security policies. Therefore each IDS supervises less IP traffic and uses less detection rules (with respect to traffics it analyses). In addition we reduce the packets time processing by a wise attack detection rules application. During this analysis we rely on a fly pattern matching strategy of several attack signatures. Thus we avoid the traffic reassembly previously used to deceive evasion techniques. Besides, we employ the protocol analysis with decision tree in order to accelerate the intrusion detection and reduce the number of false positives noticed when using a raw pattern matching method
14

Martinelli, Jean. "Protection d'algorithmes de chiffrement par blocs contre les attaques par canaux auxiliaires d'ordre supérieur." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Traditionnellement, un algorithme cryptographique est évalué à l’aune de sa résistance aux attaques dîtes « logiques ». Lorsque cet algorithme est implanté au sein d’un dispositif matériel, les fuites physiques observables pendant son fonctionnement peuvent également être utilisées par un attaquant pour monter des attaques dîtes « par canaux cachés ». Au sein de cette classe d’attaque, l’analyse différentielle de consommation ou DPA (Differential Power Analysis) est la technique la plus largement étudiée. A l’ordre 1, les attaques DPA sont désormais bien maîtrisées, et des contre-mesures prouvées sûres et relativement efficaces permettent de s’en prémunir. Certains résultats existent également à l’ordre 2 mais pas à l’ordre 3. L’objectif de la thèse est de proposer un cadre pour la DPA d’ordre k lorsque k>1. Pour ce faire, nous avons développé plusieurs méthodes de masquages en alternative aux méthodes classiques. Celles-ci sont susceptible d’offrir un meilleur ratio complexité-sécurité dans certains scénarios. Ces méthodes mettent en œuvre différentes opérations mathématiques comme le produit dans un corps fini ou le produit matriciel, ainsi que des outils cryptographiques tels le partage du secret et le calcul multi-parties. Nous avons évalué la sécurité de ces schémas de masquage suivant une méthodologie mêlant analyse théorique et résultats pratiques. Enfin nous proposons une étude de l’impact de la taille des mots manipulés par un algorithme cryptographique sur sa résistance aux attaques par canaux cachés en fonction du schéma de masquage implémenté
Traditionally, a cryptographic algorithm is estimated through its resistance to "logical" attacks. When this algorithm is implanted within a material device, physical leakage can be observed during the computation and can be analyzed by an attacker in order to mount "side channel" attacks. The most studied side channel attack is the differential power analysis (DPA). First order DPA is now well known and can be prevented by securely proven countermeasures. In 2008, some results are known for second order, but none for third order. The goal of this thesis is to propose a frame for k-th order DPA where k>1. We developed several masking schemes as alternatives to the classical ones in order to propose a better complexity-security ratio. These schemes make use of various mathematical operations such as field multiplication or matrix product and cryptographic tools as secret sharing and multi-party computation. We estimated the security of the proposed schemes following a methodology using both theoretical analysis and practical results. At last we proposed an evaluation of the action of the word size of a cryptographic algorithm upon its resistance against side channel attacks, with respect to the masking scheme implemented
15

Su, Lifeng. "Confidentialité et intégrité du bus mémoire." Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La sécurité de l'exécution du programme est souvent demandée pour les applications critiques. Malheureusement elle est vulnérable à beaucoup de techniques d'attaques telles que les exploitations logicielles et les attaques du matériel. Certaines des expériences existantes ont déjà démontré que la sécurite de la communication entre le processeur et la mémoire externe peut être compromise par les attaques par sondage sur carte. Généralement les attaques par sondage sont divisées en deux sous-classes : le sondage passif et le sondage actif. Dans le premier cas, un attaquant peut capturer des données critiques pendant le processus de communication entre le processeur et la mémoire. Le sondage actif peut être utilisé pour altérer les données de la mémoire afin de compromettre l'exécution du programme dans le processeur. Le premier cas se réfère a la confidentialité des données de la mémoire et le second a l'intégrite des données de la mémoire. Cette thèse vise à explorer les options diverses pour protéger la confidentialité et l'intégrite du bus mémoire contre ces attaques par sondage sur carte. L’idée fondamentale de la protection converge sur l'implémentation d'un moteur cryptographique matériel interne au circuit afin de garantir l'intégrite et la confidentialité des données venant de la mémoire. Comme notre marche visé est celui des systémes embarqués faibles-à-moyens, nous nous efforcons de proposer un schéma de protection réaliste, acceptable par le marché, avec des coûts faibles. Toutes ces contraintes fortes influencent largement nos choix spécifiques pour la protection
The security of program execution is often required for certain critical applications. Unfortunately she is vulnerable to many attacking techniques such as software exploits and hardware attacks. Some existing experiences denote that the security of communication between processor and memory can be compromised by board-level probing attacks. Generally probing attacks are divided into two sub-classes : passive probing and active probing. In the first case, an attacker can capture critical data during the process of processor-memory communication. The active probing attacks can be used to alter memory data in order to compromise the program execution in the processor. The first case is related to the confidentiality of memory data and the latter to the integrity of memory data. This dissertation aims to explore diverse options to protect the confidentiality and integrity of memory bus against board-level probing attacks. The fundamental idea focuses on the implementation of an on-chip hardware cryptographique engine to guarantee the integrity and confidentiality of memory data. As our target market is low-to-medium embedded systems, we intend to propose one protection scheme which is realistic, acceptable-to-market and with low costs. All such strong constraints leverage bigly our specific protection choice
16

Faurax, Olivier. "Méthodologie d'évaluation par simulation de la sécurité des circuits face aux attaques par faute." Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22106.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les circuits microélectroniques sécuritaires sont de plus en plus présents dans notre quotidien (carte à puce, carte SIM) et ils renferment des informations sensibles qu’il faut protéger (numéro de compte, clé de chiffrement, données personnelles). Récemment, des attaques sur les algorithmes de cryptographie basées sur l’utilisation de fautes ont fait leur apparition. L’ajout d’une faute lors d’un calcul du circuit permet d’obtenir un résultat faux. À partir d’un certain nombre de résultats corrects et de résultats faux correspondants, il est possible d’obtenir des informations secrètes et dans certains cas des clés cryptographiques complètes. Cependant, les perturbations physiques utilisées en pratique (impulsion laser, radiations, changement rapide de la tension d’alimentation) correspondent rarement aux types de fautes nécessaires pour réaliser ces attaques théoriques. Dans ce travail, nous proposons une méthodologie pour tester les circuits face aux attaques par faute en utilisant de la simulation. L’utilisation de la simulation permet de tester le circuit avant la réalisation physique mais nécessite beaucoup de temps. C’est pour cela que notre méthodologie aide l’utilisateur à choisir les fautes les plus importantes pour réduire significativement le temps de simulation. L’outil et la méthodologie associée ont été testés sur un circuit cryptographique (AES) en utilisant un modèle de faute utilisant des délais. Nous avons notamment montré que l’utilisation de délais pour réaliser des fautes permet de générer des fautes correspondantes à des attaques connues
Microelectronic security devices are more and more present in our lives (smartcards, SIM cards) and they contains sensitive informations that must be protected (account number, cryptographic key, personal data). Recently, attacks on cryptographic algorithms appeared, based on the use of faults. Adding a fault during a device computation enables one to obtain a faulty result. Using a certain amount of correct results and the corresponding faulty ones, it is possible to extract secret data and, in some cases, complete cryptographic keys. However, physical perturbations used in practice (laser, radiations, power glitch) rarely match with faults needed to successfully perform theoretical attacks. In this work, we propose a methodology to test circuits under fault attacks, using simulation. The use of simulation enables to test the circuit before its physical realization, but needs a lot of time. That is why our methodology helps the user to choose the most important faults in order to significantly reduce the simulation time. The tool and the corresponding methodology have been tested on a cryptographic circuit (AES) using a delay fault model. We showed that use of delays to make faults can generate faults suitable for performing known attacks
17

Saraydaryan, Jacques. "Détection d'anomalies comportementales appliquée à la vision globale." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0132/these.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à l’évolution et la croissance de nouvelles attaques, les systèmes de protection classiques (farewalls, IDS) sont devenus rapidement insuffisants pour contrôler ces menaces. Des scénarios d’attaques complexes tentent d’être assimilés à des comportements d’usage normaux du SI afin de contourner les défenses locales. Nous proposons dans nos travaux une méthode de détection d’anomalies comportementale portant sur la vision globale des SI. En intégrant les contraintes liées à l’observation de l’ensemble d’un SI (hétérogénéité, volume de données), nous avons bâtis des profils statistiques d’usage du système et mis en place une méthode de détection d’anomalies. La mise à jour continuelle de ces profils nous permet de suivre l’évolution des comportements légitimes des utilisateurs et de limiter le nombre de fausses alertes. Outre la détection d’anomalies comportementales, nos travaux ont délimité le périmètre d’observation des comportements en se focalisant sur les démarches des attaquants
Ln light of the increase in new threads and attacks, security components (Firewall, IDS) are becoming inadequate. Lndeed, complex attack scenarios tend to be confused with normal system behaviors in arder to by-pass local security components. From this perspective, we provided a new method of behavioral anomaly detection based on a global view of the system throughout our work. By taking into account the observation constraints of the entire IS (heterogeneity, high data volume), we built a statistical profile of the system and developed an anomaly detection method that showed that the continuous update of this profile allows us to follow the evolution of legitima te user behaviors and reduces false alarms. Thus, by focusing on the attacker's strategy, our works determined the observation perimeter of system behaviors to detect behavioral anomalies
18

Bhasin, Shivam. "Contre-mesures au niveau logique pour sécuriser les architectures de crypto-processeurs dans les FPGA." Paris, Télécom ParisTech, 2011. https://pastel.archives-ouvertes.fr/pastel-00683079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux de portes programmables modernes (FPGA) sont en mesure de mettre enoeuvre un système complexe sur puce (SoC) tout en fournissant des performances élevées. Un SoC Complexe contient généralement des noyaux cryptographiques embarqués permettant de chiffrer/déchiffrer des données afin d'en garantir la sécurité. Ces noyaux cryptographiques sont mathématiquement sûres mais leur mises en oeuvre matérielle peut être compromise par l'utilisation d'attaques par canaux cachés (SCA) ou d'attaques en faute (FA). Tout d'abord, une contremesure ciblant les transferts de registres, que nous appelons "Unrolling" est proposée. Cette contre-mesure exécute plusieurs tours d'un algorithme cryptographique par cycle d'horloge ce qui permet une diffusion plus profonde de données. Les résultats montrent une excellente résistance contre les SCA. Ceci est suivi par une contre-mesure basée sur un "Dual-Rail Precharge Logic" (DPL). La ``Wave Dynamic Differential Logic'' (WDDL) est une contre-mesure DPL bien adaptée pour les FPGAs. L'analyse de la DPL contre les attaques en fautes révéle qu'elle est résistante contre la majorité des fautes. Par conséquent, si des failles comme l'effet de propagation précoce (early propagation effect (EPE)) et le déséquilibre technologique sont fixés, DPL peut évoluer en tant que contre-mesure commune aux SCA et FA. En continuant sur cette ligne de recherche, nous proposons deux nouvelles contremesures: DPL sans EPE et ``Balanced-cell based DPL'' (BCDL). Enfin des outils d'évaluation avancés comme les modèles stochastique, l'information mutuelle et les attaques combinées sont discutées ce qui est très utiles l'analyse des contremesures
Modern field programmable gate arrays (FPGA) are capable of implementing complex system on chip (SoC) and providing high performance. Therefore, FPGAs are finding wide application. A complex SoC generally contains embedded cryptographic cores to encrypt/decrypt data to ensure security. These cryptographic cores are computationally secure but their physical implementations can be compromised using side channel attacks (SCA) or fault attacks (FA). This thesis focuses on countermeasures for securing cryptographic cores on FPGAs. First, a register-transfer level countermeasure called ``Unrolling'' is proposed. This hiding countermeasure executes multiple rounds of a cryptographic algorithm per clock which allows deeper diffusion of data. Results show excellent resistance against SCA. This is followed by dual-rail precharge logic (DPL) based countermeasures, which form a major part of this work. Wave dynamic differential logic (WDDL), a commonly used DPL countermeasure well suited for FPGAs is studied. Analysis of WDDL (DPL in general) against FA revealed that it is resistant against a majority of faults. Therefore, if flaws in DPL namely early propagation effect (EPE) and technological imbalance are fixed, DPL can evolve as a common countermeasure against SCA and FA. Continuing on this line of research we propose two new countermeasures: DPL without EPE and Balanced-Cell based DPL (BCDL). Finally advanced evaluation tools like stochastic model, mutual information and combined attacks are discussed which are useful when analyzing countermeasures
19

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur
This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
20

Guichard, Patrice. "Menace sur l'ordinateur : piratage - techniques et solutions." Paris 8, 2001. http://www.theses.fr/2001PA083771.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi les mythes de cette fin de siècle, il semble bien que celui du hacker informatique soit en passe de devenir l'un des plus résistants de notre monde moderne. Dans une société environnée de haute technologie et de communication invisible et sans frontières, il est finalement rassurant de disposer d'une image convenue, celle d'un adolescent génial dont les "bidouilles" informatiques font courir un délicieux frisson d'angoisse, relayé par une presse à sensations toute acquise. Virus, intrusion, sabotage, vol : qui n'a pas à l'esprit au moins un exemple dans lequel l'ordinateur a été utilisé à des fins criminelles ou subi personnellement de telles attaques sur son ordinateur ? Qualifié d'épiphénomène ou de catastrophe selon certains spécialistes, d'autres plus réalistes s'efforcent d'analyser, de quantifier l'ampleur du phénomène et de proposer des mesures pour le contenir, à défaut de pouvoir l'éliminer. La complexité des systèmes, les coût des équipements et des logiciels, ainsi que l'élargissement des domaines d'application font que l'informatique est devenue un élément stratégique pour les entreprises, toute destruction ou altération de leurs données pouvant compromettre leur compétitivité et leur image, et occasionner des pertes souvent élevées. Bien que de plus en plus d'entreprises prennent conscience des risques et investissent en moyens pour en limiter les conséquences, ce phénomène demeure mal connu et peu maîtrisé par les entreprises. Son analyse passe nécessairement par une approche pluridisciplinaire (économique, sociale et technique). Face à ces risques, les techniques de prévention et de protection évoluent rapidement mais les entreprises ou les organisations demeurent vulnérables dans de nombreux domaines et c'est ce à quoi cette thèse s'attache en divulguant ces techniques de hackers aux administrateurs afin qu'ils puissent les tester sur leur propre réseau, techniques qu'aucun outil ne pourra réaliser à leur place
At the end of the 20th century, the computer hacker myth is one of the most widespread and resilient myths of our modern world. In a high technology society with limitless invisible communication devices, the computer whizkid stereotype popularized by mass media is somewhat reassuring. Viruses, illegal intrusions, sabotage, theft: who don't know examples of criminal computer activities, being themselves victims or not? Secondary phenomenon or worldwide catastrophe, analyzing and quantifying it remains necessary to offer solutions at least to hold it back, if not to eradicate it. The complexity of systems, the heavy costs of hardware and softwares and the extension of application fields have caused computer science to become a key element in the strategies of companies, since any destruction or alteration of their data can compromise their competitiveness or their image, and cause often significant financial loss. Though more and more companies become aware of the risks and widely invest into means to protect themselves, the phenomenon of computer hacking is still poorly known and mastered by companies. It should be analyzed through a multidisciplinary (economic, social and technical) approach. Prevention and protection techniques are quickly evolving but companies remain vulnerable in many fields. Revealing computer-hacking techniques is what this thesis is intended to do, so that administrators can test them on their own networks, something that no tool can do in lieu of them
21

Boisseau, Alexandre. "Abstractions pour la vérification de propriétés de sécurité de protocoles cryptographiques." Cachan, Ecole normale supérieure, 2003. https://tel.archives-ouvertes.fr/tel-01199555.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis le développement de l'utilisation des réseaux informatiques et de l'informatisation des communications, il est apparu pour le public un besoin de sécuriser les communications électroniques. Les considérations cryptographiques constituent un élément de réponse au problème de la sécurité des communications et les protocoles cryptographiques décrivent comment intégrer la cryptographie à l'intérieur de communications réelles. Cependant, même dans le cas où les algorithmes de chiffrement sont supposés robustes, les protocoles peuvent présenter des failles de conception exploitables (failles logiques), entrainant un besoin de vérification formelle. Dans cette thèse, nous utilisons des techniques d'abstraction afin de prouver formellement divers types de propriétés. Les propriétés de secret et d'authentification, les propriétés de type équité et des propriétés de type anonymat
Since the development of computer networks and electronic communications, it becomes important for the public to use secure electronic communications. Cryptographic considerations are part of the answer to the problem and cryptographic protocols describe how to integrate cryptography in actual communications. However, even if the encryption algorithms are robust, there can still remain some attacks due to logical flaw in protocols and formal verification can be used to avoid such flaws. In this thesis, we use abstraction techniques to formally prove various types of properties : secrecy and authentication properties, fairness properties and anonymity
22

Carré, Jean-Loup. "Static analysis of embedded multithreaded programs." Cachan, Ecole normale supérieure, 2010. https://tel.archives-ouvertes.fr/tel-01199739.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un algorithme d'analyse statique pour des programmes parallèles. Il généralise des techniques d'interprétation abstraite utilisée dans le cas de programmes sans parallélisme et permet de détecter des erreurs d'exécution, exempli gratia, les déréférencements de pointeur invalide, les débordements de tableaux, les débordements d'entiers. Nous avons implémenté cet algorithme. Il analyse un code industriel de taille conséquente (100 000 lignes de code) en quelques heures. Notre technique est modulaire, elle peut utiliser n'importe quel domaine abstrait créé pour le cas de programmes non-parallèles. En outre, sans change le calcul du point fixe, certains de nos domaines abstraits. Permettent la détection de data-races ou de deadlocks. Cette technique ne présuppose pas la consistance séquentielle (i. E. Ne présuppose pas que l'exécution d'un programme parallèle est l'entrelacement de l'exécution de sous-programmes) puisque, en pratique (les processeurs INTEL et SPARC, JAVA,. . . ) l'exécution des programmes n'est pas séquentiellement consistante. Exempli gratia notre technique fonctionne avec les modèles TSO (Total Store Ordering) et PSO (Partial Store Ordering)
This Phd thesis presents a static analysis algorithm for programs with threads. It generalizes abstract interpretation techniques used in the single-threaded case and allows to detect runtimes errors, e. G, invalid pointer dereferences, array overflows, integer overflows. We have implemented this algorithm. It analyzes a large industrial multithreaded code (100K LOC) in few hours. Our technique is modular, it uses any abtract domain designed for the single-threaded-case. Furthermore, without any change in the fixpoint computation, sorne abstract domains allow to detect data-races or deadlocks. This technique does not assume sequential consistency, since, in practice (INTEL and SPARC processors, JAVA,. . . ), program execution is not sequentially consistent. E. G, it works in TSO (Total Store ordering) or PSO (Partial Store Ordering) memory models
23

Khatib, Mounis. "Key management and secure routing in mobile ad-hoc networks for trusted-based service provision in pervasive environment." Evry, Télécom & Management SudParis, 2008. http://www.theses.fr/2008TELE0017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux mobiles ad hoc sont considérés comme l’étape la plus proche du paradigme de l’informatique pervasive ou tous les périphériques se découvrent mutuellement et d’une façon dynamique, établissent des communications réseaux entre eux et se partagent les ressources/l’information afin de fournir un service transparent aux utilisateurs. Cependant le problème majeur des réseaux mobiles ad hoc (MANET) est lié à la sécurité des services proposés. En effet, le manque de fiabilité du support de transmission (air) la mobilité des clients, et le manque de ressources en termes d'infrastructure, sont des problèmes à surmonter pour garantir des communications sécurisées. Si la solution basée sur la gestion des clés permet de résoudre de telles problématiques dans les réseaux filaires, son application dans un environnement sans fil (MANET) ne garantit pas la sécurité du protocole de routage utilisé. D’où la nécessité de proposer un mécanisme de gestion de clé efficace qui prend en considération les caractéristiques des réseaux ad hoc sans fil. Deux approches peuvent être envisagées pour la conception d'un mécanisme de gestion de clé: une approche asymétriques (basé sur l'utilisation des clés publiques) et une approche symétrique. Le déploiement de la première solution nécessite une grande capacité de traitement et de mémoire pour sa mise en place, ce qui la rend très couteuse pour un environnement de réseaux ad hoc ou les ressources sont limitées. Il serait donc plus adéquat de s'orienter vers un système de chiffrement symétrique et essayer de surmonter les problèmes liés aux attaques potentielles ciblant les étapes de négociation et de distribution des clés dans de telles approches. Notre contribution dans cette thèse consiste en un premier lieu à la conception d'un nouveau protocole de gestion de clé (OPEP) pour les réseaux mobiles ad hoc. OPEP permet, entre autre, l'établissement d'une relation sécurisée entre deux nœuds, l'authentification des clés échangées et les opérations d'attachement et de départ des nœuds. Dans un second lieu, une implémentation de notre proposition est réalisée en se basant sur le protocole de routage réactif (AODV) sans la nécessité d'utiliser une entité centrale "online": Ainsi, nous avons réussi à proposer un nouveau mécanisme de gestion de clés et de sécuriser un protocole de routage existant en même temps. Le deuxième volet de notre travail se focalise sur la sécurisation du protocole de routage "PARTY" proposé pour les réseaux ad hoc comportant des milliers de nœuds. En effet, la scalabilité des réseaux ad hoc est devenu un problème crucial à résoudre et le protocole PARTY permet de fournir un protocole de routage efficace pour un environnement avec un grand nombre de nœuds hétérogènes. Afin de garantir une solution complète et sécurisée, nous analysons les vulnérabilités en termes de sécurité montrées par ce protocole et nous proposons un nouveau mécanisme préventif et correctif qui interagit avec un modèle de confiance pour renforcer la coopération des nœuds au cours du processus de routage. En dernier lieu, une validation de nos protocoles est achevée en se basant sur une plateforme de fournisseur de service dans un environnement intelligent. Notre objectif étant d'authentifier les utilisateurs, sécuriser le mécanisme de mise en disposition des services en se basant sur notre modèle de confiance et de gérer les services entre les différents utilisateurs
Mobile Ad hoc networks are the closest step to the vision of pervasive computing where all devices dynamically discover each other, organize communication networks between themselves and share resources/information to provide seamless service to the end-user. The major problem of providing security services in Mobile Ad-hoc Networks (MANET) is how to manage the key material. Due to unreliable wireless media, the host mobility and the lack of infrastructure, providing secure communications become a big challenge. In addition, the absence of an efficient key management system in this type of network makes it also hard to build a secured routing protocol. As the traditional key management schemes are not suitable to such environments, there is a high requirement to design an efficient key management system compatible with the characteristics of Ad hoc networks. Mobile Ad-hoc Networks cannot afford to deploy public key cryptosystems due to their high computational overheads and storage constraints, while the symmetric approach has computation efficiency but suffers from potential attacks on key agreement or key distribution. Key management is a central aspect for security in mobile ad hoc networks. Consequently, it is necessary to explore an approach that is based on symmetric key cryptography and overcomes their restrictions. In this thesis, our first contribution aimed to design a new protocol called OPEP that enables two nodes in an ad-hoc network to establish a pair wise key, key verification, authenticated key exchange, and group join and exclusion operations. We implement our protocol using a well-known reactive routing protocol without requiring the use of an online centralized entity; in this manner we succeed to propose a new key management scheme and to secure an existing routing protocol at the same time. It is well known that the current ad hoc routing protocols do not scale to work efficiently in networks of more than a few hundred nodes. For scalability purpose we have chosen a new routing protocol, called PARTY, which is intended to be applied in environments with a large number of heterogeneous nodes. Our second contribution in this thesis was focused on vulnerability analysis of PARTY protocol and proposing a new preventive and corrective mechanism which interact with a new trust model to enforce the cooperation of nodes during the routing process. Finally, we validate our protocols in a service provider platform inside a smart environment to authenticate users, to secure the service provision mechanism in this environment based on our trust model, and to manage services among different users
24

Antakly, Dimitri. "Apprentissage et vérification statistique pour la sécurité." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les principaux objectifs poursuivis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de modèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphical Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme représentatif du système sous-jacent. Ce modèle est ensuite utilisé pour vérifier une propriété de sécurité. Si la propriété n’est pas vérifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre approche et nous adaptons une mesure de distance entre Graphical Event Models. La mesure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des séries d’expériences sur des données de synthèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés
The main objective of this thesis is to combine the advantages of probabilistic graphical model learning and formal verification in order to build a novel strategy for security assessments. The second objective is to assess the security of a given system by verifying whether it satisfies given properties and, if not, how far is it from satisfying them. We are interested in performing formal verification of this system based on event sequences collected from its execution. Consequently, we propose a model-based approach where a Recursive Timescale Graphical Event Model (RTGEM), learned from the event streams, is considered to be representative of the underlying system. This model is then used to check a security property. If the property is not verified, we propose a search methodology to find another close model that satisfies it. We discuss and justify the different techniques we use in our approach and we adapt a distance measure between Graphical Event Models. The distance measure between the learned "fittest" model and the found proximal secure model gives an insight on how far our real system is from verifying the given property. For the sake of completeness, we propose series of experiments on synthetic data allowing to provide experimental evidence that we can attain the desired goals
25

Ahmed, Nacer Amina. "Contributions au déploiement sécurisé de processus métiers dans le cloud." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0013/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant
The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
26

Duc, Guillaume. "Support matériel, logiciel et cryptographique pour une éxécution sécurisée de processus." Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La majorité des solutions apportées aux problèmes de sécurité informatique (algorithmes, protocoles, systèmes d'exploitation sécurisés, applications) s'exécute sur des architectures matérielles non sécurisées et pouvant donc être vulnérables à des attaques physiques (espionnage du bus, modification de la mémoire, etc. ) ou logicielles (système d'exploitation corrompu). Des architectures sécurisées, permettant de garantir la confidentialité et la bonne exécution de programmes contre de telles attaques, sont proposées depuis quelques années. Après avoir présenté quelques bases cryptographiques ainsi qu'un comparatif des principales architectures sécurisées proposées dans la littérature, nous présenterons l'architecture sécurisée CryptoPage. Cette architecture garantit la confidentialité du code et des données des applications ainsi que leur bonne exécution contre des attaques matérielles et logicielles. Elle inclut également un mécanisme permettant de réduire les fuites d'informations via le bus d'adresse, tout en conservant des performances raisonnables. Nous étudierons également comment déléguer certaines opérations de sécurité de l'architecture CryptoPage à un système d'exploitation qui n'est pas digne de confiance, afin de permettre plus de flexibilité, sans pour autant compromettre la sécurité de l'ensemble. Enfin, d'autres mécanismes importants pour le bon fonctionnement de l'architecture CryptoPage sont traités : identification des processus chiffrés, attestation des résultats, gestion des signaux logiciels, gestion des processus légers, gestion des communications inter-processus
The majority of the solutions to the issue of computer security (algorithms, protocols, secure operating systems, applications) are running on insecure hardware architectures that may be vulnerable to physical (bus spying, modification of the memory content, etc. ) or logical (malicious operating system) attacks. Several secure architectures, which are able to protect the confidentiality and the correct execution of programs against such attacks, have been proposed for several years. After the presentation of some cryptographic bases and a review of the main secure architectures proposed in the litterature, we will present the secure architecture CryptoPage. This architecture guarantees the confidentiality of the code and the data of applications and the correct execution against hardware or software attacks. In addition, it also includes a mechanism to reduce the information leakage on the address bus, while keeping reasonable performances. We will also study how to delegate some security operations of the architecture to an untrusted operating system in order to get more flexibility but without compromising the security of thearchitecture. Finally, some other important mechanism are studied: encrypted processid entification, attestations of the results, management of software signals, management of the threads, inter-process communication
27

Sadok, Moufida. "Veille anticipative stratégique pour réduire le risque des agressions numériques." Grenoble 2, 2004. http://www.theses.fr/2004GRE21020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche a mis l'accent sur un problème lié à la gestion à l'ère numérique et apporte la nécessité de considérer le risque des agressions numériques, lié à la sécurité des ressources informationnelles de l'entreprise utilisatrice des TIC, comme étant un risque de management et non pas uniquement un risque technique. Nous avons conçu et construit la Méthode d'Analyse et de Réduction du Risque des Agressions Numériques (MARRAN) afin d'assister une Equipe de Réponse aux Incidents (ERI) de sécurité. Cette méthode assiste le processus d'interprétation collective des informations de type signal faible pour réduire le temps de réponse face aux agressions numériques voire même de les anticiper. MARRAN se base sur un acteur important, le médiateur, qui accomplit un ensemble d'actions qui ont pour objectifs d'aider les membres d'une ERI à construire des vues individuelles, concilier les vues individuelles divergentes ainsi que d'affiner le raisonnement. Le médiateur devrait avoir certaines compétences comme, la crédibilité fondée sur l'expertise et l'expérience ainsi qu'une bonne connaissance de l'entreprise, de ses objectifs, et des caractéristiques de son système d'information. De même, nous avons validé MARRAN sur des cas réels d'agression numérique tout en spécifiant les conditions de sa réplication. Nous avons procédé également à l'évaluation de MARRAN auprès des experts en sécurité informatique. MARRAN est supportée par un logiciel qui utilise certaines applications de la technologie Internet permettant essentiellement la construction d'une base de connaissances à travers la capitalisation des validations des scénarios d'attaques
This research work addresses the problem related to management in the digital era and show the need to consider risk, generated by the digital aggressions targeting the security of the information resources of a corporate which highly using the ICT, as a risk management rather then a technical risk. We have constructed and implemented a method, called MARRAN, for the analysis and the reduction of digital aggressions risk. This method aims to support the process of collective interpretation of information considered as a week signal type in order to reduce the reaction time against digital aggressions and even anticipate there occurrence. MARRAN is based on major actor, the mediator, who accomplishes a set of actions that aim to help the IRT (Incident Response Team) members to construct individual views, conciliate individual divergent views, and refine the needed reasoning. The mediator needs to have skills such as the credibility, which is based on experience and expertise and the well knowledge of the corporate, its objectives and the characteristics of its information system. We have validated MARRAN method based on real cases of digital aggressions and have specified its replication conditions. Also, we have evaluated MARRAN with experts in information security. MARRAN is supported by software that was developed to use various applications in internet technology and allowing mainly the construction of a knowledge base through the capitalization of the attack scenarios processed by the IRT members
28

Heerde, Harold Johann Wilhelm van. "Privacy-aware data management by means of data degradation." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les fournisseurs de services recueillent de plus en plus d'informations personnelles sensibles, bien qu’il soit réputé comme très difficile de protéger efficacement ces informations contre le pira-tage, la fuite d’information par négligence, le contournement de chartes de confidentialité peu précises, et les usages abusifs d’administrateurs de données peu scrupuleux. Dans cette thèse, nous conjecturons qu’une rétention sans limite de données sensibles dans une base de données mènera inévitablement à une divulgation non autorisée de ces données. Limiter dans le temps la rétention d'informations sensibles réduit la quantité de données emmagasinées et donc l'impact d'une telle divulgation. La première contribution de cette thèse porte sur la proposition d’un mo-dèle particulier de rétention basé sur une dégradation progressive et irréversible de données sensibles. Effacer les données d'une base de données est une tâche difficile à mettre en œuvre techniquement; la dégradation de données a en effet un impact sur les structures de stockage, l'indexation, la gestion de transactions et les mécanismes de journalisation. Pour permettre une dégradation irréversible des données, nous proposons plusieurs techniques telles que le stockage des don-nées ordonnées par le temps de dégradation et l'utilisation de techniques ad-hoc de chiffrement. Les techniques proposées sont validées par une analyse théorique ainsi que par l’implémentation d’un prototype
Service-providers collect more and more privacy-sensitive information, even though it is hard to protect this information against hackers, abuse of weak privacy policies, negligence, and malicious database administrators. In this thesis, we take the position that endless retention of privacy-sensitive information will inevitably lead to unauthorized data disclosure. Limiting the retention of privacy-sensitive information limits the amount of stored data and therefore the impact of such a disclosure. Removing data from a database system is not a straightforward task; data degradation has an impact on the storage structure, indexing, transaction management, and logging mechanisms. To show the feasibility of data degradation, we provide several techniques to implement it; mainly, a combination of keeping data sorted on degradation time and using encryption techniques where possible. The techniques are founded with a prototype implementation and a theoretical analysis
29

Hamieh, Ali. "La sécurité dans les réseaux sans fil ad hoc : les attaques jamming et les noeuds greedy." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux ad hoc sont en effet vulnérables aux attaques telles que le comportement greedy (i. E. , égoïste) et les attaques jamming (i. E. , brouillage). Dans cette dissertation, nous avons proposé RLGREEDY, un système de détection qui identifie un nœud greedy sans modification de protocole MAC. Il mesure effectivement le temps d'attente des nœuds pour accéder au canal, afin de détecter les nœuds greedy. D'autre part, concernant la détection de jamming, le système proposé RLJAM dans cette thèse se concentre sur le calcul de la corrélation entre l'erreur et le temps de bonne réception. Signalons quelques précisions dans notre manière de parer les attaques jamming : nous avons proposé deux approches, POWJAM, et DIRJAM. Notre première approche POWJAM consiste à cacher les communications aux brouilleurs réactifs en changeant dynamiquement la puissance de transmission et en utilisant différents chemins pour la communication. La deuxième approche DIRJAM vise à protéger du jamming dans les réseaux sans fil ad hoc qui utilisent l'antenne directionnelle. DIRJAM apporte de petits modifications au protocole de routage réactif afin que ce dernier soit réactif en présence d'attaques jamming
Ad hoc networks are vulnerable to security attacks such as greedy behaviors and jamming attacks. In this dissertation, we proposed RLGREEDY, an advancement for a detection system to identify and differentiate a greedy node without modifying MAC protocol. In effect this proposed system measures the waiting time of nodes to access the channel for detection of greedy nodes. Furthermore, concerning the detection of jamming, the system proposed in this thesis RLJAM focuses on calculating a correlation between error and correct reception times. To counter these jamming attacks, POWJAM and DIRJAM are proposed in this dissertation. Our first approach, POWJAM, is to hide the communications from reactive jammers through changing the transmission power and use of a different path for communication. The second approach, DIRJAM, is to react at jamming in wireless ad hoc networks using directional antenna, making minimal changes in reactive routing protocol to be reactive in the presence of jamming attacks
30

Syed, Idrus Syed Zulkarnain. "Soft biometrics for keystroke dynamics." Caen, 2014. http://www.theses.fr/2014CAEN2024.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Aujourd'hui, il existe de multiples usages des systèmes biométriques à de nombreuses fins telles que le contrôle d'accès physique, le contrôle de présence, le paiement électronique et autres. Cette thèse de doctorat porte sur l'authentification biométrique et nous proposons d'utiliser la dynamique de frappe au clavier afin d'éviter les problèmes d'authentification par mot de passe. La dynamique de frappe au clavier mesure les rythmes qui se dégagent lorsqu'on tape sur un clavier d'ordinateur. En ce sens, c'est une modalité biométrique comportementale, de même que la dynamique de signature, la démarche ou la voix. Parmi les avantages de la dynamique de frappe au clavier par rapport à d'autres modalités, nous pouvons mentionner son faible coût et sa facilité d'usage : en effet, aucun capteur ni dispositif supplémentaire n'est nécessaire et les utilisateurs sont habitués à taper un mot de passe. En contrepartie, la dynamique de frappe présente de plus faibles performances que les autres modalités biométriques comme les empreintes digitales, le visage, l'iris. Cela peut s'expliquer par une variabilité intra-classe élevée. Une façon de gérer cette variabilité est de prendre en compte des informations supplémentaires dans le processus de décision. Cela peut être fait de différentes manières : (i) en combinant la dynamique de frappe au clavier avec une autre modalité biométrique (multibiométrie); (ii) en optimisant l'étape d'enrôlement (une donnée biométrique est exploitée pour la génération de la référence seulement si le niveau de qualité est suffisant); ou (iii) avec une solution nouvelle et prometteuse: la biométrie douce (profilage de l'utilisateur). Nous abordons dans cette thèse ces deux derniers aspects. Nous proposons plusieurs contributions afin d'améliorer les performances des systèmes de dynamique de frappe au clavier. Tout d'abord, nous avons créé notre propre jeu de données, qui est une nouvelle base de données biométrique appelée 'GREYC-NISLAB Keystroke'. Nous avons collecté les données de 110 utilisateurs en France et en Norvège. Cette nouvelle base est publique et contient des informations de profilage des utilisateurs: la façon de taper (une main ou deux mains), le genre, l'âge et la latéralité manuelle (droiter ou gaucher). Nous avons effectué diverses études afin de déterminer le taux de reconnaissance des critères de biométrie douce : (i) la façon de taper (une main ou deux mains); (ii) le genre (masculin ou féminin); (iii) la classe d'âge (moins de 30 ans ou plus de 30 ans); et (iv) la latéralité manuelle (droitier ou gaucher) des utilisateurs en fonction de leur façon de taper au clavier. Nous montrons qu'il est possible de reconnaître le profil de l'utilisateur en fonction de ces critères. Par la suite, nous proposons une fusion de différentes acquisitions de la dynamique de frappe afin d'accroître les performances du système. Enfin, en combinant les processus d'authentification avec les profils de biométrie douce, nous présentons une amélioration de l'authentification. Les résultats de nos expériences montrent les avantages des méthodes proposées
At present, there are a number of usages of biometric systems for many specific purposes such as physical access control, attendance monitoring, electronic payment (e-payment) and others. This PhD thesis focuses on biometric authentication and we propose to use keystroke dynamics in order to avoid password-based authentication problems. Keystroke dynamics measures the rhythm a person exhibits while typing on a keyboard. In this sense, keystroke dynamics is a behavioral biometric modality, as well as signature dynamics, gait and voice. Among the advantages of keystroke dynamics in comparison to other modalities, we can mention that it is a low cost and usable modality: indeed, no extra sensor or device is required and users often type a password. The counterpart to these advantages is the worse performance compared to morphological biometric modalities such as fingerprint, face or iris. The rather worse performances of keystroke dynamics can be explained by the high intra-class variability of the users' behaviour. One way to handle this variability is to take into account additional information in the decision process. This can be done with: (i) multibiometrics (by combining keystroke and another modality); (ii) optimising the enrolment step (a template is stored as reference only if its quality level is sufficient); or (iii) with a new and promising solution: soft biometrics (profiling the user). We address in this PhD thesis these two last aspects. We propose several contributions in order to enhance the performance of keystroke dynamics systems. First, we created a benchmark dataset called 'GREYC-NISLAB Keystroke' with biometric data collection from 110 users in France and Norway. This new benchmark database is available to the international scientific community and contains some profiling information on users: the way of typing (one hand or two hands), gender, age and handedness. We then perform various studies in order to determine the recognition accuracy of soft biometric traits given keystroke dynamics features: (i) the way of typing (one hand or two hands); (ii) gender (male or female); (iii) age class (below 30 or 30 and above); and (iv) handedness (right-handed or left-handed). Subsequently, we study the biometric fusion with keystroke dynamics in order to increase the soft biometrics recognition performance. Finally, by combining the authentication process with soft criteria, we present an improvement of user verification. The results of our experiments show the benefits of the proposed methods
31

Hoolash, Mahendranath. "E-securité, e-confidentialité et e-integrité." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30083.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La trilogie : e-confidentialité, e-sécurité et e-intégrité, détermine la valeur d'une information sur le web. La sécurité des systèmes d'information (SSI) a pour but de garantir la valeur des informations qu'on utilise. Si cette garantie n'est plus assurée, on dira que le système d'information a été altéré (corrupted). Une altération. Il est donc indispensable d'assurer la protection de l'information de l'entreprise lorsqu'elle est stockée sans précautions sur le disque dur d'un ordinateur relié à internet, Car. Elle peut être lue, copiée, modifiée ou détruite à partir d'un poste de travail situé aux antipodes sans que, trop souvent hélas, le propriétaire s'en aperçoive. Aujourd'hui, les menaces viennent en grande partie d'Internet. Il y a donc un intérêt grandissant pour les systèmes électroniques d'identification et d authentification. Un des buts de ma thèse est d'abord de présenter de façon exhaustive les différentes technologies d'authentification du moment. Deux méthodes, les plus fiables sur le marché, ont été utilisées dans le cadre de mon projet de création de site Extranet mis en place chez GEMS : site Extranet hautement sécurisé, qui fonctionne aujourd'hui en plein régime et dont le démarrage a eu lieu en 1999. L'épine dorsale de ce SSI est constituée de Virtual Private Network et de RSAsecuriD. .
The Information Trilogy : eConfidentiatfty, security and elmegrity determines the Information value on the Web. The main objective of any Information Security System (ISS) is to ensure the real and authentic value of Information we make use of. If such is not the case, we refer to our Information System as being corrupted. Hence, it is of primordial importance to protect information of any firm when it is stored on a hard disk on a PC, linked to the Internet. This, since it can be read, copied, altered or deleted from a remote connected person, without the owner's notice. Today, these threats come mainly from the Internet. Because of this, there is an increasing demand for electronic Identification and Authentication systems. One of the main goals of my thesis is to browse exhaustively through all the main Authentification techniques available since 3- 4 years. And, see how, some two of these techniques have been applied in my Extranet Project at GEMS : project which started in 1999. The spinal cord of this high security site is based on : VPN (Virtual Private Network and RSA Securid). .
32

Hodique, Yann. "Sûreté et optimisation par les systèmes de types en contexte ouvert et contraint." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-15.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La généralisation des équipements électroniques embarqués provoque des besoins croissants d'adaptabilité en ce qui concerne les systèmes logiciels qui doivent y être déployés. Par ailleurs, les faibles ressources dont les équipements disposent, ainsi que leur propension à se trouver en milieu non sécurisé, imposent des contraintes de performance et de fiabilité à ces mêmes systèmes. Le cadre de cette thèse est l'étude de la conception et de l'exploitation de systèmes de types afin d'adapter au mieux les systèmes logiciels à ces différentes contraintes. À travers la définition de systèmes de types adaptés, nous intervenons dans la chaîne de production logicielle de façon à faciliter le respect des contraintes spécifiques du domaine embarqué. Les contributions scientifiques de ce travail trouvent leur place dans deux périodes particulières du cycle de vie du logiciel. La première période est celle de la conception, durant laquelle nous proposons l'emploi d'un système de types présentant la propriété d'être suffisamment souple pour permettre l'expression de concepts de haut niveau sans crainte d'une dégradation de performance. La seconde période est celle du déploiement qui, par sa nature « définitive », nous permet d'avoir recours au calcul de types plus spécifiquement orientés vers l'interprétation spécialisée des programmes, à des fins d'optimisation notamment.
33

Elbaz, Reouven. "Mécanismes matériels pour des transferts processeur mémoire sécurisés dans les systèmes embarqués." Montpellier 2, 2006. http://www.theses.fr/2006MON20119.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Berbain, Côme. "Analyse et conception d'algorithmes de chiffrement à flot." Paris 7, 2007. http://www.theses.fr/2007PA077124.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif premier de la cryptographie est la protection de la confidentialité des données. Les algorithmes de chiffrement à flot constituent une des familles d'algorithmes de chiffrement symétrique permettant de garantir cette confidentialité tout en satisfaisant un haut niveau de performances. Dans cette thèse, nous nous intéressons dans un premier temps à différents types d'attaques contre les algorithmes de chiffrement à flot que nous illustrons : attaque par corrélation contre l'algorithme GRAIN, attaque par reconstruction contre le mécanisme BSG, attaque algébrique contre certains types de registres à décalage à rétroaction non linéaire et attaque par resynchronisation contre une version réduite de l'algorithme SALSA. La seconde partie de cette thèse décrit nos travaux en matière de sécurité prouvée pour les algorithmes de chiffrement à flot. Nous présentons l'algorithme QUAD et donnons un certain nombre d'arguments de sécurité prouvée reliant la sécurité de l'algorithme à la difficulté conjecturée du problème Multivariate Quadratic. Nous nous intéressons au modèle de sécurité des algorithmes de chiffrement à flot utilisant des valeurs d'initialisation (IV) et nous présentons une construction qui permet de construire de manière standard un algorithme de chiffrement à flot utilisant des IV à partir d'un générateur de nombres. Nous appliquons cette construction à l'algorithme QUAD, ce qui en fait le premier algorithme de chiffrement à flot utilisant des IV et doté d'arguments de sécurité prouvée. Nous présentons également les algorithmes DECIM et SOSEMANUK, à la conception desquels nous avons participé. Finalement, nous présentons des implantations logicielles et matérielles efficaces de l'algorithme QUAD
The primary goal of cryptography is to protect the confidentiality of data and communications. Stream ciphers is one of the two most popular families of symmetric encryption algorithms that allow to guaranty confidentiality and to achieve high performances. In the first part of this thesis, we present different cryptanalysis techniques against stream ciphers: correlation attack against the stream cipher GRAIN, guess and determine attack against the BSG mechanism, algebraic attack against special kinds of non-linear feedback shift registers, and chosen IV attack against a reduced version of the stream cipher SALSA. In a second part, we focus on proofs of security for stream ciphers: we introduce the new algorithm QUAD and give some provable security arguments in order to link its security to the conjectured intractability of Multivariate Quadratic problem. We also try to extend the security requirements of stream ciphers to the case where initialisation values (IV) are used: we present a construction which allows us to build a secure IV dependent stream cipher from a number generator and apply it to QUAD, which becomes the first IV dependent stream cipher with provable security arguments. We also present the algorithms DECIM and SOSEMANUK, to which we made design contributions. Finally in a third part, we present efficient software and hardware implementations of the QUAD algorithm
35

Kang, Eun-Young. "Abstractions booléennes pour la vérification des systèmes temps-réel." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10089/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente un schéma formel et efficace pour la vérification de systèmes temps-réel. Ce schéma repose sur la combinaison par abstraction de techniques déductives et de model checking, et cette combinaison permet de contourner les limites de chacune de ces techniques. La méthode utilise le raffinement itératif abstrait (IAR) pour le calcul d'abstractions finies. Etant donné un système de transitions et un ensemble fini de prédicats, la méthode détermine une abstraction booléenne dont les états correspondent à des ensembles de prédicats. La correction de l'abstraction par rapport au système d'origine est garantie en établissant un ensemble de conditions de vérification, issues de la procédure IAR. Ces conditions sont à démontrer à l'aide d'un prouveur de théorèmes. Les propriétés de sûreté et de vivacité sont ensuite vérifiées par rapport au modèle abstrait. La procédure IAR termine lorsque toutes les conditions sont vérifiées. Dans le cas contraire, une analyse plus fine détermine si le modèle abstrait doit être affiné en considérant davantage de prédicats. Nous identifions une classe de diagrammes de prédicats appelés PDT (predicate diagram for timed system) qui décrivent l'abstraction et qui peuvent être utilisés pour la vérification de systèmes temporisés et paramétrés
This thesis provides an efficient formal scheme for the tool-supported real-time system verification by combination of abstraction-based deductive and model checking techniques in order to handle the limitations of the applied verification techniques. This method is based on IAR (Iterative Abstract Refinement) to compute finite state abstractions. Given a transition system and a finite set of predicates, this method determines a finite abstraction, where each state of the abstract state space is a true assignment to the abstraction predicates. A theorem prover can be used to verify that the finite abstract model is a correct abstraction of a given system by checking conformance between an abstract and a concrete model by establishing/proving that a set of verification conditions are obtained during the IAR procedure. Then the safety/liveness properties are checked over the abstract model. If the verification condition holds successfully, IAR terminates its procedure. Otherwise more analysis is applied to identify if the abstract model needs to be more precise by adding extra predicates. As abstraction form, we adopt a class of predicate diagrams and define a variant of predicate diagram PDT (Predicate Diagram for Timed systems) that can be used to verify real-time and parameterized systems
36

El, Chaer Nidal. "La criminalité informatique devant la justice pénale." Poitiers, 2003. http://www.theses.fr/2003POIT3006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours la criminalité informatique se trouve de plus en plus confrontée à la justice pénale. C'est un vaste domaine dont les frontières ne sont pas toujours faciles à définir, mais un cadre d'analyse logique nous permet d'apporter de nouveaux éléments de réflexion, et de mieux enrichir la connaissance du système pénal français. En effet, il est utile de s'interroger sur la capacité des dispositions, élaborées à une époque où l'informatique n'existait pas. Le besoin de création d'incriminations spécifiques est apparu, à l'effet de prendre en compte cette nouvelle forme de criminalité et de combler de la sorte un vide non pas juridique mais légal. En outre, les incriminations ne se suffisent pas à elles-mêmes, elles doivent s'épanouir dans le cadre de procédures qui autorisent leur pleine exploitation. Tout cela doit être accompli dans l'espace nouveau qu'habite l'Internet, où beaucoup de nos modes traditionnels de répression légale peuvent ne pas être applicables. C'est une véritable politique globale qui doit être menée par tous les acteurs et qui se manifeste par l'ajustement des lois, le renforcement de l'entente internationale, le développement des techniques et de l'éthique.
37

Hourdin, Vincent. "Contexte et sécurité dans les intergiciels d'informatique ambiante." Nice, 2010. http://www.theses.fr/2010NICE4076.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En informatique ambiante, le contexte joue un rôle capital. Les applications informatiques étendent leurs interactions avec 'environnement: de nouvelles entrées et sorties sont utilisées, telles que des capteurs et d'autres dispositifs mobiles d'interaction avec l'environnement réel et physique. Les intergiciels, créés pour masquer la complexité des couches inférieures en informatique distribuée, se voient alors chargés de nouvelles préoccupations, comme la prise en compte du contexte, l'adaptation des applications ou la sécurité. Une représentation en couches intergicielles de ces préoccupations ne permet pas d'exprimer toutes leurs interdépendances. En informatique ambiante, la distribution est nécessaire pour obtenir les informations contextuelles, mais il est aussi nécessaire de prendre en compte le contexte dans la distribution, par exemple pour limiter les interactions aux entités d'un contexte défini. De plus, les interactions asynchrones utilisées dans les nouveaux environnements informatiques nécessitent une attention particulière lors de la prise en compte du contexte. De même, la sécurité intervient à la fois dans les couches intergicielles de distribution et de prise en compte du contexte. Dans cette thèse nous présentons un modèle de prise en compte du contexte dans la sécurité et la distribution. Le contrôle d'accès doit évoluer pour intégrer une autorisation dynamique et réactive, basée sur des informations liées à l'environnement et plus simplement sur l'authentification des entités. Les informations contextuelles évoluent suivant une dynamique indépendante des applications. Il est aussi nécessaire de détecter les changements de contexte pour réévaluer l'autorisation. Nous expérimentons cette prise en compte du contexte dans le contrôle des interactions avec la plate-forme expérimentale WComp, issue du modèle SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly). SLCA permet de concevoir des intergiciels et des applications dynamiques dont le découpage fonctionnel n'est pas traduit en couches, mais par un entrelacement de fonctionnalités. Les aspects d'assemblage sont un mécanisme d'adaptation compositionnelle d'assemblages de composants. Nous les utilisons pour exprimer nos préoccupations non-fonctionnelles et pour les composer avec les applications existantes de façon déterministe et réactive. Nous introduisons pour cela des règles de contrôle d'interactions contextualisées. L'intergiciel permet ainsi d'adapter en fonction du contexte nos préoccupations non-fonctionnelles et le comportement de l'application
In ubiquitous computing, context is key. Computer applications are extending their interactions with the environment: new inputs and outputs are used, such as sensors and other mobile devices interacting with the physical environment. Middlewares, created in distributed computing to hide the complexity of lower layers, are then loaded with new concerns, such as taking into account the context, adaptation of applications or security. A middleware layer representation of these concerns cannot express all heir interdependencies. In pervasive computing, distribution is required to obtain contextual information, but it is also necessary to take into account the context in distribution, for example to restrict interactions between entities in a defined context. In addition,asynchronous interactions used in those new environments require special attention when taking into account the context. Similarly, security is involved both in the middleware layers of distribution and context-sensitivity. In this thesis we present a model taking into account the context both in security and distribution. Access control must evolve to incorporate a dynamic and reactive authorization, based on information related to environment or simply on the authentication information of entities. Contextual information evolve with their own dynamic, independent of applications. It is also necessary to detect context changes to reenforce the authorization. We are experimenting this context-awareness targetting interaction control with the experimental framework WComp, derived from the SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly) model. SLCA allows to create dynamic middlewares and applications for which functional cutting is not translated into layers but into an interleaving of functionalities. Aspects of assembly are a mechanism for compositional adaptation of assemblies of components. We use them to express our non-functional concerns and to compose them with existing applications in a deterministic and reactive manner. For this purpose, we introduce context-aware interaction control rules. The middleware thus allows to adapt, according to context, our non-functional concerns and the behavior of the application
38

Clavier, Christophe. "De la sécurité physique des crypto-systèmes embarqués." Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans un monde défiant, l'augmentation du nombre et de la diversité des applications numériques ont rendu nécessaire l'existence d'un objet pratique intégrant les fonctions cryptographiques requises pour les besoins quotidiens de sécurité des transactions, de confidentialité des échanges, d'identification du porteur ou encore d'authentification pour l'accès à un service. Parmi les dispositifs cryptographiques embarqués aptes à proposer ces fonctionnalités, la carte à puce est certainement le plus utilisé de nos jours. Sa portabilité (un porte-feuille peut en contenir une dizaine) et sa capacité à protéger les données et programmes qu'elle contient contre les attaques intrusives, lui confèrent naturellement sa fonction essentielle de ``bunker'' pour le stockage de clés et l'exécution d'algorithmes cryptographiques dans les usages mobiles nécessitant un haut degré de sécurité. Évidemment nécessaire, la conception de schémas cryptographiques mathématiquement robustes, voire prouvés sûrs dans certains modèles, s'est malgré tout révélée insuffisante depuis la publication en 1996 des premières attaques physiques. Exploitant des vulnérabilités liées à la mise en oeuvre concrète des routines de sécurité et à leur implémentation, ces menaces comprennent l'analyse de canaux auxiliaires permettant d'obtenir de l'information sur l'état interne d'un processus, et l'exploitation de fautes provoquées ouvrant la voie à certaines cryptanalyses autrement impossibles. Cette thèse présente une série de travaux de recherche dans le domaine de la sécurité physique des crypto-systèmes embarqués. Deux parties de ce document sont consacrées à la description de certaines attaques et à l'étude de l'efficacité de possibles contre-mesures. Une troisième partie aborde le domaine particulier, et encore très peu exploré, de l'applicabilité des attaques physiques dans le cas où la fonction cryptographique considérée est en grande partie, voire totalement, inconnue de l'adversaire
In a world full of threats, the development of widespread digital applications has led to the need for a practical device containing cryptographic functions that provide the everyday needs for secure transactions, confidentiality of communications, identification of the subject or authentication for access to a particular service. Among the cryptographic embedded devices ensuring these functionalities, smart cards are certainly the most widely used. Their portability (a wallet may easily contain a dozen) and their ability to protect its data and programs against intruders, make it as the ideal ``bunker'' for key storage and the execution of cryptographic functions during mobile usage requiring a high level of security. Whilst the design of mathematically robust (or even proven secure in some models) cryptographic schemes is an obvious requirement, it is apparently insufficient in the light of the first physical attacks that were published in 1996. Taking advantage of weaknesses related to the basic implementation of security routines, these threats include side-channel analysis which obtains information about the internal state of the process, and the exploitation of induced faults allowing certain cryptanalysis to be performed which otherwise would not have been possible. This thesis presents a series of research works covering the physical security of embedded cryptosystems. Two parts of this document are dedicated to the description of some attacks and to a study of the efficiency of conceivable countermeasures. A third part deals with that particular and still mainly unexplored area which considers the applicability of physical attacks when the cryptographic function is, partly or totally, unknown by the adversary
39

Sassolas, Mathieu. "Méthodes qualitatives et quantitatives pour la détection d'information cachée." Paris 6, 2011. http://www.theses.fr/2011PA066581.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes informatiques sont devenus omniprésents et sont utilisés au quotidien pour gérer toujours plus d'information. Ces informations sont de plus en plus souvent confidentielles: informations stratégiques militaires ou financières, données personnelles. La fuite de ces informations peut ainsi avoir des conséquences graves telles que des pertes humaines, financières, des violations de la vie privée ou de l'usurpation d'identité. Les contributions de cette thèse se découpent en trois parties. Tout d'abord, nous étudions le problème de synthèse d'un canal de communication dans un système décrit par un transducteur. Malgré les limites imposées par ce modèle, nous montrons que le problème de synthèse est indécidable en général. Cependant, lorsque le système est fonctionnel, c'est-à-dire que son fonctionnement externe est toujours le même, le problème devient décidable. Nous généralisons ensuite le concept d'opacité aux systèmes probabilistes, en donnant des mesures groupées en deux familles. Lorsque le système est opaque, nous évaluons la robustesse de cette opacité vis-à-vis des informations données par les lois de probabilités du système. Lorsque le système n'est pas opaque, nous évaluons la taille de la faille de sécurité induite par cette non opacité. Enfin, nous étudions le modèle des automates temporisés à interruptions (ITA) où les informations sur l'écoulement du temps sont organisées en niveaux comparables à des niveaux d'accréditation. Nous étudions les propriétés de régularité et de clôture des langages temporisés générés par ces automates et proposons des algorithmes de model-checking pour des fragments de logiques temporelles temporisées.
40

Ranéa, Pierre-Guy. "La tolérance aux intrusions par fragmentation-dissémination." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT007H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La technique originale proposee met a profit l'isolation physique entre les divers composants et la redondance des ressources du systeme reparti. Cette technique a ete appliquee a l'archivage des fichiers. Ceci a consiste a concevoir a realiser, sur un reseau d'ordinateurs, un service d'archivage tolerant ces fautes accidentelles et les intrusions
41

Paradinas, Pierre. "La Biocarte : intégration d'une carte à microprocesseur dans un réseau professionnel santé." Lille 1, 1988. http://www.theses.fr/1988LIL10100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Luna, del Aguila Felipe. "Information flow security for asynchronous, distributed, and mobile applications." Nice, 2005. http://www.theses.fr/2005NICE4038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif pour ce travail est de proposer une solution de sécurité pour contrôler des flux d'information, spécifiquement par un mécanisme de contrôle d'accès et de flux. L'objectif vise les applications réparties en utilisant les objets actifs avec des communications asynchrones. Il inclut une politique de sécurité et les mécanismes qui imposeront les règles présentes dans de telles politiques. La confidentialité des données et des flux d'information sécurisés est fournie par une vérification dynamique des communications. Tandis que les flux d'information sont généralement vérifiés statiquement {Mye,BN03,Her,HR_infoFlow,ZZN+,Sab,HVY,CBC}, notre attention est concentrée sur des vérifications dynamiques. Pour la réaliser, le modèle proposé a une politique de contrôle de l'information qui inclut des règles discrétionnaires, et comme ces règles sont dynamiquement exécutables, il est possible de tirer profit des contrôles dynamiques pour effectuer en même temps tous les contrôles obligatoires. Les autres avantages de cette approche font que: les contrôles dynamiques n'exigent pas la modification des compilateurs, ne changent pas le langage de programmation, n'exigent pas des modifications aux codes sources existants, et fournissent une flexibilité au moment d'exécution. Ainsi, les contrôles dynamiques sont bien adaptés pour être inclus dans une couche logiciel de type middleware, qui, d'une façon non-intrusive, fournit et assure des services de sécurité aux applications de niveau supérieur. Le modèle de programmation fondamental {CKV} est basé sur les objets actifs, les communications asynchrones, et les synchronisations de flux de données. Ces notions sont liées au domaine des systèmes répartis mais avec une caractéristique qui le distingue des autres: la présence d'entités mobiles, indépendants et capables d'agir l'un sur l'autre avec d'autres entités également mobiles. Par conséquent, le modèle de sécurité proposé se fonde fortement sur des règles de politique de sécurité avec des conditions obligatoires pour le contrôle des flux d'information. Des niveaux de sécurité sont employés pour étiqueter indépendamment les entités impliquées dans les événements de communication: objets actifs et données transmises. Cet étiquetage "indépendant" est sujet cependant à des règles discrétionnaires. La combinaison des règles obligatoires et discrétionnaires permet de relâcher les contrôles strictes imposés par l'utilisation unique des règles obligatoires. Le modèle final de sécurité suit une approche dont les avantages sont doubles: Une base saine. Le modèle de sécurité est fondé sur un fond théorique fort, le calcul séquentiel asynchrone des processus (ASP) {CHS_POPL04}, lié aux formalismes bien connus {HR_infoFlow,Hen,CBC,CF}. Puis, la sémantique formelle d'ASP est étendue avec de nouvelles prémisses. Ceci fournit une base formelle à notre modèle et, en même temps, permet de vérifier dynamiquement les accès non autorisés. En conclusion, afin de prouver l'exactitude du modèle de sécurité, une propriété intuitive pour la sécurisation de flux de l'information est définie et est assurée par l'application du modèle de contrôle d'accès. Extensibilité et flexibilité. Une application pratique de ce modèle est également visé, par une intégration dans des logiciels du type middleware, comme par exemple ProActive. La granularité de ce modèle de sécurité est défini afin de la rendre efficace (parce qu'il n'y a aucune sécurité à vérifier à l'intérieur d'une activité) et finement réglable: des niveaux de sécurité peuvent être définis sur des activités en raison de l'absence de la mémoire partagée, mais un niveau spécifique peut être indiqué pour les paramètres des requêtes et les activités créées. D'ailleurs, l'implémentation pratique du mécanisme de sécurité permet son utilisation par des appels de bibliothèque de haut niveau sans avoir besoin de changer le langage de programmation ou d'imposer l'existence de compilateurs spéciaux
The objective for this work is to propose a security solution to regulate information flows, specifically through an access and flow control mechanism, targeted to distributed applications using active objects with asynchronous communications. It includes a security policy and the mechanism that will enforce the rules present in such policies. Data confidentiality and secure information flows is provided through dynamic checks in communications. While information flows are generally verified statically {Mye,BN03,Her,HR_infoFlow,ZZN+,Sab,HVY,CBC}, our attention is focused on dynamic verifications. To achieve it, the proposed model has an information control policy that includes discretionary rules, and because these rules are by nature dynamically enforceable, it is possible to take advantage of the dynamic checks to carry out at the same time all mandatory checks. As another advantage of this approach, dynamic checks do not require to modify compilers, do not alter the programming language, do not require modifications to existing source codes, and provide flexibility at run-time. Thus, dynamic checks fit well in a middleware layer which, in a non-intrusive manner, provides and ensures security services to upper-level applications. The underlying programming model {CKV} is based on active objects, asynchronous communications, and data-flow synchronizations. These notions are related to the domain of distributed systems but with a characteristic that distinguishes it from others: the presence of mobile entities, independents and capables to interact with other also mobile entities. Hence, the proposed security model heavily relies on security policy rules with mandatory enforcements for the control of information flow. Security levels are used to independently tag the entities involved in the communication events: active objects and transmitted data. These "independent" tagging is however subject to discretionary rules. The combination of mandatory and discretionary rules allows to relax the strict controls imposed by the sole use of mandatory rules. The final security model follows an approach whose advantages are twofold: A sound foundation. The security model is founded on a strong theoretical background, the Asynchronous Sequential Processes (ASP) calculus {CHS_POPL04}, related to well-known formalisms {HR_infoFlow,Hen,CBC,CF}. Then, the formal semantics of ASP are extended with predicate conditions. This provides a formal basis to our model and, at the same time, makes it possible to dynamically check for unauthorized accesses. Finally, in order to prove the correctness of the security model, an intuitive secure information flow property is defined and proved to be ensured by the application of the access control model. Scalability and flexibility. A practical use of this model is also targeted, with an implementation into middlewares, e. G. ProActive. The granularity of this security model is defined in order to make it both efficient (because there are no security checks inside an activity) and finely tunable: levels can be defined on activities because of the absence of shared memory, but a specific level can be given for request parameters and created activities. Moreover, the practical implementation of the security mechanism allows its use through high level library calls with no need to change the programming language or the existence of special compilers
43

Allard, Tristan. "Sanitizing microdata without leak : a decentralized approach." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le monde digital imprègne de plus en plus fortement le quotidien de chacun. Croissant rapidement, la quantité de données personnelles se retrouvant stockées dans des bases de données cohérentes et bien structurées atteint des niveaux inégalés. L'anonymisation de données (privacy-preserving data publishing - ou PPDP) est une tentative pour bénéficier de cette richesse tout en protégeant l'intimité des individus. Cependant, peu de travaux se sont penchés sur la mise en œuvre sécurisée des techniques d'anonymisation : les processus d'anonymisation mis en place en pratique souffrent de vulnérabilités préoccupantes. Dans cette thèse, nous nous intéressons précisément à ce problème, et proposons de tirer partie de l'émergence d'un nouveau type de dispositif sécurisé, portable, et à large capacité de stockage. La contribution de cette thèse est un ensemble de protocoles, corrects et sécurisés, capables de réaliser une large variété de modèles et algorithmes d'anonymisation non-interactifs, et ce dans un contexte original où chaque individu gère lui-même ses données personnelles à l'aide de son propre serveur de données sécurisé
The frontiers between humans and the digital world are tightening. An unprecedented and rapidly increasing amount of individual data ends up nowadays into well-structured and consistent databases. Privacy-preserving data publishing models and algorithms are an attempt for benefiting collectively from this wealth of data while still preserving the privacy of individuals. However, few works have focused on their implementation issues, leading to highly vulnerable practical scenarios. This thesis tackles precisely this issue, benefiting from the rise of portable, large capacity, and tamper-resistant devices used as personal data servers. Its contribution is a set of correct and secure protocols permitting to perform traditional non-interactive privacy-preserving data publishing algorithms and models in an original context where each individual manages her data autonomously through her own secure personal data server
44

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0063/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
45

Trouessin, Gilles. "Traitements fiables de données confidentielles par fragmentation-redondance-dissémination." Toulouse 3, 1991. http://www.theses.fr/1991TOU30260.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce memoire presente des travaux et resultats, theoriques mais aussi appliques, concernant trois approches permettant de resoudre le probleme des traitements fiables de donnees confidentielles: protection-replication, chiffrement-replication et fragmentation-redondance-dissemination. Ces approches visent a tolerer a la fois des fautes accidentelles et des fautes intentionnelles. L'amelioration de la fiabilite et la preservation de la confidentialite reposent en general sur des techniques antagonistes et sont d'ordinaire abordees separement. Differentes solutions sont presentees et comparees selon un ensemble de criteres relatifs a la surete de fonctionnement, a l'ouverture et aux performances; l'une d'elles, la fragmentation-dissemination et replication, qui semble la plus prometteuse, est approfondie. Les caracteristiques de cette solution sont presentees, en insistant sur les analogies qui peuvent etre constatees avec la parallelisation d'algorithmes. Trois classes de techniques de fragmentation sont definies (tranches de bits, orientee-structure, orientee-parallelisme) et deux modeles d'execution fragmentee (client/serveurs, oriente-objets) sont proposes. Une technique d'evaluation quantitative de la preservation de la confidentialite, issue de la theorie de l'information et reposant sur des mesures d'entropie, est appliquee a la fragmentation par tranches de bits. Des mesures generales d'evaluation comparative sont ainsi obtenues. L'analogie entre fragmentation et parallelisation est etudiees en detail sur des algorithmes paralleles de resolution de systemes lineaires. Une demarche d'evaluation qualitative, qui offre des analogies avec la technique precedente pour ce qui est des types d'information a observer et des niveaux d'appreciation de la preservation de la confidentialite, est appliquee a la fragmentation orientee-parallelisme. Ces deux etudes confirment l'interet de la fragmentation-redondance-dissemination pour tolerer de facon unifiee les fautes accidentelles et les intrusions
46

Munoz, Martine. "La protection des échanges de données informatisées." Nice, 1997. http://www.theses.fr/1997NICE0045.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Toute la difficulté se résume à déterminer comment le droit prend en compte cette nouvelle technologie de l'edi. Il existe un double phénomène : d'une part, la technique est obligée de prendre en compte le droit, c'est ainsi que l'on a recouru a l'analyse fonctionnelle afin d'etablir la reconnaissance juridique des messages e. D. I. Considérés comme equivalents à un ecrit papier. D'autre part, le droit doit s'adapter à la technique, il adopte alors des règles juridiques issues soit d'un droit déja existant, un droit d'emprunt; soit il crée de nouvelles règles juridiques, un droit créateur. Ainsi s'opère la reconnaissance juridique des e. D. I. Qui constitue la première etape. Une fois établie cette reconnaissance, il convient de doter cette nouvelle technologie d'un régime juridique. Là réside la difficulté de déterminer s'il y a confusion ou distinction entre securite et confidentialité. Nous opterons pour une distinction de fond basée sur la nature juridique du régime juridique de la protection des e. D. I. La securité des edi nous semble dominée par une protection de nature contractuelle alors que la confidentialité des edi s'avere dominée par une protection légale. Il est evident que dans chaque régime, une composante contractuelle ou légale existe mais se revèle insuffisante, defaillante. En effet, si la protection légale de la securité des edi se revèle parcellaire, la protection contractuelle de la confidentialité des edi parait insuffisante. Enfin, une telle protection rencontre bien evidemment des limites : c'est notre troisième etape. Les premières limites sont apportées par le droit de la concurrence et le principe de transparence, les secondes par des principes de puissance publique.
47

Preda, Stere. "Reliable context aware security policy deployment - applications to IPv6 environments." Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0145.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les réseaux sont aujourd'hui en continue évolution dû aux nouvelles exigences et activités organisationnelles. En parallèle, la protection des ressources doit changer et toute cette gestion devient une tâche difficile pour l'administrateur sécurité. Dans cette thèse, nous adressons plusieurs aspects clés dans le domaine de la sécurité réseaux et proposons des solutions conséquentes : 1. Déploiement des politiques basé sur des modèles de contrôle d'accès. Les diverses données inutiles dans la spécification de la politique seront ainsi éliminées avant le déploiement automatique de la politique abstraite. Les tâches de l'administrateur sont considérablement simplifiées. 2. Développement formel des algorithmes de déploiement. Ces algorithmes doivent être formellement prouvés pour que l'administrateur ait confiance dans le processus de déploiement. 3. La gestion des exigences contextuelles et des fonctionnalités de sécurité insuffisantes. Le modèle de contrôle d'accès doit être assez robuste afin de couvrir les exigences contextuelles. Le problème reste au niveau des composants de sécurité qui ne sont pas toujours capables d'interpréter ces contextes. 4. Nouveaux mécanismes de sécurité IPv6. Nous avons adressé la conception d'un nouveau mécanisme de sécurité IPv6 qui devrait interpréter certains contextes spécifique aux réseaux IPv6. Nos travaux de recherche constituent une approche cohérente et apportent des contributions claires pour garantir une gestion fiable des politiques de sécurité réseaux
Organization networks are continuously growing so as to sustain the newly created organizational requirements and activities. In parallel, concerns for assets protection are also increasing and security management becomes an ever-changing task for the security officer. In this dissertation we address several key aspects of network security management providing solutions for each aspect:1. Policy deployment based on access control models. Invalid or unusable data of the security policy will have been removed before deploying the abstract policy through a set of algorithms; in this manner, the security officer’s tasks are greatly simplified. 2. Formal algorithm development. The correctness of the algorithms involved in the policy deployment process is of undeniable importance. These algorithms should be proved so that the security officers trust the automatic policy deployment process. 3. Management of contextual requirements and of limited security functionalities. The access control model should be robust enough to cover contextual requirements. The issue is that the security devices are not always able to interpret the contexts. And sometimes, there are security requirements which cannot be deployed given the existing limited security functionalities in the IS. 4. New IPv6 security mechanisms. We have naturally come to consider the design of new IPv6 security mechanisms when dealing with the lack of functionalities in an information system. Our research outlines a comprehensive approach to deploy access control security policies. Actually, it constitutes a step further towards an automatic and reliable management of network security
48

Delaunay, Pascal. "Attaques physiques sur des algorithmes de chiffrement par flot." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis 1999 et l'article de Paul Kocher, de nombreuses attaques physiques ont été publiées, principalement contre des algorithmes à clé publique et des algorithmes de chiffrement par bloc. Paradoxalement, nous retrouvons peu d'attaques physiques contre les algorithmes de chiffrement par flot, bien qu'ils soient utilisés dans de nombreuses applications. Après un rappel sur les attaques physiques, les registres à décalage à rebouclage linéaire et non-linéaire et les attaques par corrélation, nous proposons trois attaques par corrélation rapides contre des registres à décalage à rebouclage linéaire utilisant des informations issues d'attaques physiques. Nous présentons ensuite deux vulnérabilités dans les registres à décalage à rebouclage non-linéaire qui permettent de retrouver l'état interne du registre. Dans la dernière partie, nous utilisons les deux vulnérabilités précédentes pour proposer deux attaques physiques contre l'algorithme de chiffrement par flot VEST
Since 1999 and Paul Kocher's initial publication, several side-channel attacks have been published. Most of these attacks target public-key cryptosystems and bloc ciphers but only a few of them target stream ciphers, despite being widely used on daily applications. After some remids on side-channel attacks, linear and non-linear feedback shift registers and fast correlation attacks, we propose at first three fast correlation attacks targetting linear feedback shift registers and using side-channel information to improve their accuracy. Next, we present two flaws in non-linear feedback shift registers which allow full recovery of the internal state using well-chosen side-channel attacks. We finally use these vulnerabilities to mount two side-channel attacks against VEST, an eSTREAM candidate, to recover partial information from the internal state
49

Oualha, Nouha. "Sécurité et coopération pour le stockage de donnéees pair-à-pair." Paris, ENST, 2009. http://www.theses.fr/2009ENST0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les algorithmes et les protocoles auto-organisants ont récemment suscité beaucoup d'intérêt aussi bien pour les réseaux mobiles ad-hoc que pour les systèmes pair-à-pair (P2P), comme l’illustrent les applications de partage de fichiers ou VoIP. Le stockage P2P, où les pairs accroissent collectivement leurs ressources de stockage afin d’assurer la fiabilité et la disponibilité des données, est un domaine d'application émergeant. Le stockage P2P suscite cependant des enjeux de sécurité qui doivent être traités, en particulier en ce qui concerne l'égoïsme des pairs, en particulier en ce qui concerne le parasitisme (free-riding). L'observation continue du comportement des pairs et le contrôle du processus de stockage est une condition importante pour sécuriser un système de stockage contre de telles attaques. Détecter le mauvais comportement de pairs exige des primitives appropriées comme les preuves de possession de données, une forme de preuve de connaissance par lequel le pair de stockage essaye interactivement de convaincre le vérificateur qu'il possède les données sans les envoyer ou les copier chez le vérificateur. Nous proposons et passons en revue plusieurs protocoles de vérification de possession de données. Nous étudions en particulier comment la vérification et la maintenance de données peuvent être déléguées à des volontaires pour tolérer la déconnexion des pairs. Nous proposons alors deux mécanismes, l’un basé sur la réputation et l'autre sur la rémunération, pour imposer la coopération au moyen de telles preuves de possession de données périodiquement fournies par les pairs assurant le stockage. Nous évaluons l'efficacité de telles incitations avec des technique
Self-organizing algorithms and protocols have recently received a lot of interest in mobile ad-hoc networks as well as in peer-to-peer (P2P) systems, as illustrated by file sharing or VoIP. P2P storage, whereby peers collectively leverage their storage resources towards ensuring the reliability and availability of user data, is an emerging field of application. P2P storage however brings up far-reaching security issues that have to be dealt with, in particular with respect to peer selfishness, as illustrated by free-riding attacks. The continuous observation of the behavior of peers and monitoring of the storage process is an important requirement to secure a storage system against such attacks. Detecting peer misbehavior requires appropriate primitives like proof of data possession, a form of proof of knowledge whereby the holder interactively tries to convince the verifier that it possesses some data without actually retrieving them or copying them at the verifier. We propose and review several proof of data possession protocols. We in particular study how data verification and maintenance can be handed over to volunteers to accommodate peer churn. We then propose two mechanisms, one based on reputation and the other on remuneration, for enforcing cooperation by means of such data possession verification protocols, as periodically delivered by storage peers. We assess the effectiveness of such incentives with game theoretical techniques. We in particular discuss the use of non-cooperative one-stage and repeated Bayesian games as well as that of evolutionary games
50

Humphries, Christopher. "User-centred security event visualisation." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S086/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il est aujourd'hui de plus en plus difficile de gérer les énormes quantités de données générées dans le cadre de la sécurité des systèmes. Les outils de visualisation sont une piste pour faire face à ce défi. Ils représentent de manière synthétique et souvent esthétique de grandes quantités de données et d'événements de sécurité pour en faciliter la compréhension et la manipulation. Dans ce document, nous présentons tout d'abord une classification des outils de visualisation pour la sécurité en fonction de leurs objectifs respectifs. Ceux-ci peuvent être de trois ordres : monitoring (c'est à dire suivi en temps réel des événements pour identifier au plus tôt les attaques alors qu'elles se déroulent), exploration (parcours et manipulation a posteriori d'une quantité importante de données pour découvrir les événements importants) ou reporting (représentation a posteriori d'informations déjà connues de manière claire et synthétique pour en faciliter la communication et la transmission). Ensuite, nous présentons ELVis, un outil capable de représenter de manière cohérente des évènements de sécurité issus de sources variées. ELVis propose automatiquement des représentations appropriées en fonction du type des données (temps, adresse IP, port, volume de données, etc.). De plus, ELVis peut être étendu pour accepter de nouvelles sources de données. Enfin, nous présentons CORGI, une extension d'ELVIs permettant de manipuler simultanément plusieurs sources de données pour les corréler. A l'aide de CORGI, il est possible de filtrer les évènements de sécurité provenant d'une source de données en fonction de critères résultant de l'analyse des évènements de sécurité d'une autre source de données, facilitant ainsi le suivi des évènements sur le système d'information en cours d'analyse
Managing the vast quantities of data generated in the context of information system security becomes more difficult every day. Visualisation tools are a solution to help face this challenge. They represent large quantities of data in a synthetic and often aesthetic way to help understand and manipulate them. In this document, we first present a classification of security visualisation tools according to each of their objectives. These can be one of three: monitoring (following events in real time to identify attacks as early as possible), analysis (the exploration and manipulation a posteriori of a an important quantity of data to discover important events) or reporting (representation a posteriori of known information in a clear and synthetic fashion to help communication and transmission). We then present ELVis, a tool capable of representing security events from various sources coherently. ELVis automatically proposes appropriate representations in function of the type of information (time, IP address, port, data volume, etc.). In addition, ELVis can be extended to accept new sources of data. Lastly, we present CORGI, an successor to ELVIS which allows the simultaneous manipulation of multiple sources of data to correlate them. With the help of CORGI, it is possible to filter security events from a datasource by multiple criteria, which facilitates following events on the currently analysed information systems

До бібліографії