To see the other types of publications on this topic, follow the link: Systèmes d'exploitation (Ordinateurs).

Dissertations / Theses on the topic 'Systèmes d'exploitation (Ordinateurs)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes d'exploitation (Ordinateurs).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fernandez, Conception. "Modélisation des systèmes d'exploitation par HBDS." Paris 6, 1988. http://www.theses.fr/1988PA066235.

Full text
Abstract:
Modélisation générale des systèmes d'exploitation en utilisant la méthode HBDS (hypergraph based data structure) basée sur les types abstraits de données et s'appuyant sur une représentation graphique rigoureuse. Les concepts HBDS permettent la représentation des structures des données du système, alors que le fonctionnement de son noyau est simulé par des algorithmes écrits en exel.
APA, Harvard, Vancouver, ISO, and other styles
2

Polakovic, Juraj. "Architecture logicielle et outils pour systèmes d'exploitation reconfigurables." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0051.

Full text
Abstract:
La reconfiguration dynamique est la capacité d'un système logiciel à permettre sa modification pendant son exécution et peut être utilisée pour mettre-à-jour une partie fautive du système, introduire des algorithmes spécialisés, autoriser des extensions faites par des tiers, adapter le système à un nouvel environment et ajouter des sondes de monitoring ou debugging, etc. Les systèmes d'exploitation existants offrent des mécanismes de reconfiguration dynamique, néanmoins ceux-ci sont figés par l'implémentation du système. Par conséquent le compromis entre la flexibilité et l'efficacité du système reconfigurable est fixe et il n'est pas possible de réutiliser le système dans d'autres contextes opérationnels (avec des mécanismes de reconfiguration différents). Nous présentons une approche architecturale pour la construction de systèmes reconfigurables à la carte et la programmation de leurs reconfigurations. Notre modèle de programmation est basé sur le modèle à composants Fractal et son implémentation en C, appelée Think. Le canevas associé au modèle comprend un compilateur d'architecture qui permet de construire des systèmes reconfigurables et un compilateur de reconfigurations. Pour illustrer notre approche, nous avons réalisé plusieurs prototypes de systèmes reconfigurables qui ont permis de montrer la flexibilité de notre approche ainsi qu’une évaluation quantitative et l’impact des différentes implémentations de reconfiguration dynamique sur l’efficacité d’un système concret<br>Dynamic reconfiguration allows modifying a system during its execution. Dynamic reconfiguration is important in embedded systems, where one does not necessarily have the luxury to stop a running system. While some operating systems do offer mechanisms for dynamic reconfiguration, the proposed mechanisms are essentially hardwired in the system. This results in a fixed trade-off between flexibility of reconfigurations and the system's efficiency which may be far from optical in certain operational contexts, thus limiting the system reuse. We present an architecture-based programming model allowing both construction of customized reconfigurable system kernels and programming of their reconfigurations. This model is based on the Fractal component model and its C implementation, called Think. The framework supporting our approach encompasses an architecture compiler for building customized system kernels and a reconfiguration compiler
APA, Harvard, Vancouver, ISO, and other styles
3

Hanibeche, Rafik. "La sûreté de fonctionnement dans les systèmes d'exploitation répartis : application dans le système chorus/mix : mécanismes pour la haute disponibilité des données non volatiles." Paris 7, 1993. http://www.theses.fr/1993PA077057.

Full text
Abstract:
Ce memoire de these aborde l'aspect surete de fonctionnement dans les systemes d'exploitation repartis. Cet aspect est examine dans ses dimensions theorique et pratique. Du point de vue theorique, le memoire comprend une description de paradigmes utilises afin d'assurer, dans les systemes d'exploitation repartis, la surete de fonctionnement des traitements, de l'acces aux donnees non volatiles, de la communication et de l'acces aux ressources protegees. Cette description est precedee d'un expose sur les principales notions relatives a la surete de fonctionnement dans les systemes informatiques et a la structuration des systemes d'exploitation repartis. Du point de vue pratique, le memoire comprend les specifications fonctionnelle et de realisation d'une extension du systeme de gestion de fichiers reparti (sgfr) de chorus/mix. Chorus/mix est un systeme d'exploitation reparti construit de facon modulaire au-dessus d'un micro-noyau. Il offre aux processus utilisateur, une interface d'appels systeme compatible avec celle d'unix et etendue a la repartition. Le but de l'extension du sgfr de chorus/mix est d'assurer une haute disponibilite des donnees non volatiles (fichiers), lors de l'occurrence de fautes franches affectant des sites du systeme informatique gere par chorus/mix. La haute disponibilite des donnees non volatiles est assuree grace a un service de replication de systemes de fichiers. Ce service a ete developpe avec un souci d'integration harmonieuse dans le systeme existant, i. E. Sans modifier l'organisation existante du systeme. La replication, introduite par le biais de l'extension du mecanisme de mount, est entierement prise en charge par le service de replication. Ce service permet de selectionner des systemes de fichiers pour les repliquer. Le service de replication assure une totale coherence entre les exemplaires d'un systeme de fichiers replique. La disponibilite, pour la lecture, l'execution d'un fichier replique est garantie par le service de replication tant qu'il existe un site non defaillant renfermant un exemplaire du fichier
APA, Harvard, Vancouver, ISO, and other styles
4

Claudel, Benoit. "Mécanismes logiciels de protection mémoire." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0153.

Full text
Abstract:
Le but de ce travail est de montrer qu'il est possible de fournir à un système d'exploitation des mécanismes permettant d'isoler des composants logiciels à grain fin. L'approche contraste avec les mécanismes matériels de protection mémoire des systèmes actuels permettant par l'intermédiaire de l'unité de gestion de la mémoire d'isoler les processus dans des espaces d'adressage virtuel différents. Notre approche repose sur l'utilisation d'un langage de programmation sûr pour segmenter un unique espace d'adresse virtuel en domaines d'isolation mémoire appelées des agents. Nos principales contributions sont un mécanisme efficace de communication (sans copie) entre les agents du système et un moteur d'exécution permettant à plusieurs milliers d'agents de. S'exécuter simultanément<br>This thesis aims at providing mechanisms suitable for fine-grain memory isolation. Our approach contrasts with mechanisms used by commodity operating systems to provide memory isolation trough the concept of processes, whereby real memory is virtualized into address spaces. Our approach is to rely on virtual machine technology that provides a safe instruction set to split a same virtual address space in isolation domains called agents. Our contribution is an efficient zero-copy communication mechanism and an execution engine that comfortably scales to handle thousands of agents on modest hardware
APA, Harvard, Vancouver, ISO, and other styles
5

Karam, Louis. "Pseu : prototype d'un système d'exploitation universel." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX32027.

Full text
Abstract:
Les ordinateurs evoluent tres rapidement, a tel point que les concepts et les outils qui avaient ete definis pour ce qui etait, il y a peu de temps, des machines de dimension moyenne ou grande, sont maintenant appliquee aux micro-ordinateurs. C'est evident le cas des systemes d'exploitation qui peuvent paraitre comme un obstacle lorsqu'on veut utiliser l'ordinateur a un niveau autre que le langage machine. Le premier objectif de cette these est de fournir une methode logique simple, eprouvee d'un prototype de systeme d'exploitation universel. Le deuxieme objectif de cette these est de permettre aux gestionnaires qui ne possedent pas une connaissance approndie des systemes d'exploitation, de demeurer les maitres d'oeuvre de l'operation, autonomes face a des conseillers et aussi face aux vendeurs d'equipements. Le troisieme objectif est d'attirer l'attention des firmes d'informatiques aux problemes qui se posent au coeur de chaque migration, en proposant des elements de solutions qui peuvent constituer un noyau d'un developpement plus serieux<br>Computers are making progress so rapidly that concepts and tools primarily defined for medium or large machines are now being applied to microcomputers. It is obvious that it is the case for operating systems which can seem to be an obstacle when someone wishes to use components of a computer other than the machine language. The first objective of this thesis is to povide a proven simple and logical method of a universal operating system prototype. The second objective of this thesis is to allow administrators without an elaborate knowledge of operating systems to remain in control and independent when confronted by counsellors or computer salesmen. The third objective is to attract computer firm' attention on problems during the course of each migration by proposing solutions which can be the centre of a more complex development
APA, Harvard, Vancouver, ISO, and other styles
6

Fénié, Patrick. "Graico : méthode de modélisation et de conception de systèmes d'exploitation de systèmes de production." Bordeaux 1, 1994. http://www.theses.fr/1994BOR10622.

Full text
Abstract:
Cette these decrit la methode graico qui permet de modeliser et de concevoir des systemes d'exploitation (se) de systemes de production. Le se est responsable des prises de decision court et tres court terme dont la majorite sont declenchees sur evenement. Compose de centres d'exploitation, il est defini et modelise selon trois axes: coordination, synchronisation et cooperation. Les outils de modelisations du systeme physique de production conduit et du systeme d'exploitation assurent, par l'intermediaire d'une grammaire de specification, la structuration des choix de conception informatiques et organisationnels. Enfin, la demarche structure l'utilisation des outils pour l'analyse et la conception des systemes d'exploitation
APA, Harvard, Vancouver, ISO, and other styles
7

Chebili, Mourad. "Une interface intelligente d'assistance à l'utilisation d'un système d'exploitation." Paris 8, 2000. http://www.theses.fr/2000PA081858.

Full text
Abstract:
L' @expansion des Interfaces Utilisateurs Graphiques (IUG) a été rapidement accélérée par la standardisation des systèmes de fenêtrage. Grâce à cette révolution incontournable des IHM, il semble utile et fondamental d'orienter et d'appliquer cette technologie au coeur de la machine : le Système d'Exploitation ou SE. Lors de ce travail, nous justifions la particularité des Interfaces Utlisateurs des SE et nous tentons de démasquer les problèmes actuels de celles-ci. D'autre part, nous tentons de démontrer l'interêt de faire participer activement l'IUSE dans l'Interaction Homme-Machine par le biais d'une intelligence exploitant la technologie des agents activés pour s'adapter aux besoins des utilisateurs. Dans ce cadre, nous proposons d'étudier et de formaliser une architecture intelligente favorisant la décomposition de la tâche. Cela permet la réduction de la complexité et la spécialisation des agents. . . .
APA, Harvard, Vancouver, ISO, and other styles
8

Grimaud, Gilles. "Camille : un système d'exploitation ouvert pour carte à microprocesseur." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-452.pdf.

Full text
Abstract:
Antoine de Saint-Exupéry écrivait en d'autres termes que le progres technologique consiste a faire disparaitre l'outil pour que l'utilisateur jouisse pleinement du service. La carte a puce s'est rapidement integree dans notre vie courante, elle nous represente sur de grands reseaux (e. G. Banquaire, telephonique, sante) sans que nous y pretions vraiment attention. Cependant la carte a microprocesseur reste un produit de l'ingenierie electronique peu connu des informaticiens. Pourtant elle s'est averee la meilleure solution pour gerer la mobilite de l'utilisateur dans bien des cas. Aussi une nouvelle generation de cartes, equipees de veritables systemes d'exploitation, propose de charger dynamiquement donnees et codes issus de langages de programmation connus (java, visual basic, c). Cependant, les informaticiens n'ont fait aucune nouvelle utilisation de ces cartes ouvertes. Nous presentons dans ce document une etude des contraintes et besoins associes a ces nouvelles cartes. A partir de cette etude, nous avons defini une architecture logicielle distribuee entre la carte et son terminal. Nous avons prouve la validite de notre demarche en terme de securite, et une premiere maquette de cette architecture a ete realisee. Differentes experiences ont permis d'evaluer experimentalement les bien-fondes de notre demarche pour les elements logiciels que nous avons finalement places au cur de la carte.
APA, Harvard, Vancouver, ISO, and other styles
9

Duflot, Loïc. "Contribution à la sécurité des systèmes d'exploitation et des microprocesseurs." Paris 11, 2007. http://www.theses.fr/2007PA112155.

Full text
Abstract:
Pour établir leurs modèles de fonctionnement et de sécurité, les systèmes d’exploitation modernes s’appuient sur les spécifications des composants matériels qu’ils utilisent. La capacité d’un système d’exploitation à faire respecter sa politique de sécurité repose donc, entre autres, sur la fiabilité et la correction des spécifications des composants matériels sous-jacents. Dans ce document, nous montrons, exemples concrets à l’appui, comment des faiblesses architecturales des composants matériels des ordinateurs de type PC mettant en œuvre des processeurs x86 et x86-64 peuvent mettre en danger la sécurité des systèmes d’exploitation qui les utilisent. Nous montrons en particulier que ces faiblesses se traduisent par la possibilité, pour un attaquant capable d’exécuter du code sur une machine cible, d’obtenir la réalisation d’une action contraire à la politique de sécurité en vigueur, comme le contournement d’un mécanisme de sécurité impératif, en n’effectuant que des actions atomiques légitimes du point de vue de la politique de sécurité d’un système d’exploitation et en ne mettant en œuvre que des fonctionnalités documentées de ce dernier. Par exemple, nous montrons qu’il est possible pour un attaquant d’utiliser des faiblesses dans les mécanismes de transition entre les modes de fonctionnement d’un processeur x86 pour obtenir l’exécution de code avec des privilèges équivalents à ceux du système d’exploitation à l’insu complet de ce dernier. Nous montrons en outre comment la présence de certaines fonctionnalités dans les chipsets des cartes mères peut remettre en question l’efficacité des mécanismes de cloisonnement mémoire des processeurs<br>Most of the time, operating systems use hardware components specification as an input for the definition and the formalisation of their security model. Therefore, an operating system will only be able to enforce its own security policy if the specifications of the hardware components that are involved are correct and reliable. In this document, we show how structural weaknesses of hardware components should be considered as threats to operating systems that rely on such components. We will mostly focus on PC computers using x86 or x86-64 processors and give precise examples of such weaknesses. For instance, we will show how it is possible for an attacker with limited privileges on a target machine to circumvent operating systems mandatory security functions or to achieve something that is against the global security policy using only atomic actions that can rightfully be considered legitimate in the operating system security policy. For example, we will show how it is possible for an attacker to use weaknesses in the transition model between operating modes of x86 processors to get to run code with privileges equivalent to those of the operating system kernel without the kernel actually noticing it. Also, we show how the very fact that some mechanisms are implemented in motherboard chipsets can threaten the reliability and efficiency of processors-related memory protection functions, and how it is possible for an attacker to use such weaknesses as a means for privilege escalation over a target system
APA, Harvard, Vancouver, ISO, and other styles
10

Mzouri, Azzeddine. "Les protocoles de communication dans un système d'exploitation réparti." Paris 11, 1988. http://www.theses.fr/1988PA112072.

Full text
Abstract:
Étude et réalisation de protocoles de communication dans un système d'exploitation reparti. L'importance des protocoles spécialises pour assurer la transparence de la communication inter processus est montrée. Il est aussi montre l'intérêt des protocoles généraux lorsque les objectifs du système doivent conjuguer aussi bien la transparence que l'ouverture et la portabilité. Les résultats sont illustrés au travers du cas du système d'exploitation réparti chorus, développe à l'inria.
APA, Harvard, Vancouver, ISO, and other styles
11

Rohárik, Vîlcu Dana-Mihaela. "Systèmes temps réel embarqués : ordonnancement optimal de tâches pour la consommation énergétique du processeur." Paris 12, 2004. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002113700204611&vid=upec.

Full text
Abstract:
Cette thèse traite le problème d’ordonnancement des tâches périodiques indépendantes avec minimisation de la consommation énergétique au niveau du/des processeur(s). Des résultats théoriques connus pour le cas monoprocesseur sont complétés par une formule pour la solution statique optimale. Le problème est élargi pour les plates-formes multiprocesseur et des résultats fondamentaux sur la faisabilité et l’optimalité sont obtenus. Sur la base du concept d’ordonnancement global optimal, on fournit la solution statique et celle dynamique pour 1 cas des tâches avant des consommations énergétiques différentes. Une condition nécessaire d’optimalité sur une plate-forme donnée est obtenue. Le gain énergétique estimé à l’augmentation du nombre de processeurs est important. Ces résultats théoriques nécessitent des modifications au niveau du système d’exploitation et des plates-formes adaptées ; RTAI-Linux et respectivement Transmeta Crusoe, ARM v6 et Altera Nios sont pris comme exemples<br>This thesis treats the problem of periodical independent task scheduling with minimal power consumption at the processor(s) level. Known theoretical results for the uniprocessor case are completed with a formula for the optimal static solution. We enlarge the problem for multiprocessor plat!orms and fundamental results on feasibility and optimality are obtained. Based on the concept of globally optimal scheduling, we give the static and dynamic solutions for the case of tasks with different consumptions. We determine a necessary condition of optimality for a scheduling on a given platform. The results show important gains by increasing the number of processors. These theoretical results imply modifications to be done at the operating system level and adapted physical plates-forms ; RTAI-Linux and respectively Transmeta Crusoe, ARM v6 and Altera Nios are used as example
APA, Harvard, Vancouver, ISO, and other styles
12

Lacombe, Eric. "Sécurité des noyaux de systèmes d'exploitation." Phd thesis, INSA de Toulouse, 2009. http://tel.archives-ouvertes.fr/tel-00462534.

Full text
Abstract:
Cette thèse traite de la préservation de l'intégrité des systèmes d'exploitation courants. L'objectif est de répondre aux menaces actuelles et futures que représentent les logiciels malveillants qui s'implantent dans le noyau de ces systèmes (comme les rootkits "noyau") ou du moins en altèrent l'intégrité (comme les rootkits "hyperviseur"). La première partie de ce document se focalise sur ces logiciels malveillants. Tout d'abord, les attaques logiques sur les systèmes informatiques sont présentées dans leur globalité. Ensuite est proposée une classification des actions malveillantes qui provoquent la perte de l'intégrité d'un noyau. Enfin, les résultats d'une étude sur les rootkits "noyau" sont donnés et la création d'un rootkit original est expliquée. La seconde partie s'intéresse à la protection des noyaux. Après une description de l'état de l'art, une approche originale est proposée, fondée sur le concept de préservation de contraintes. En premier lieu, les éléments essentiels sur lesquels reposent un noyau sont identifiés et les contraintes sur ces éléments, nécessaires à un fonctionnement correct du noyau, sont exposées. Un hyperviseur léger (Hytux) a été conçu pour empêcher la violation de ces contraintes en interceptant certaines des actions du noyau. Sa mise en oeuvre est décrite pour un noyau Linux 64 bits sur architecture x86 qui dispose des technologies Intel VT-x et VT-d.
APA, Harvard, Vancouver, ISO, and other styles
13

Rouzaud-Cornabas, Jonathan. "Formalisation de propriétés de sécurité pour la protection des systèmes d'exploitation." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00623075.

Full text
Abstract:
Cette thèse traite du problème d'une protection en profondeur qui puisse être assurée par un système d'exploitation. Elle établit la faiblesse des solutions existantes pour l'expression des besoins de sécurité. Les approches supportent en général une seule propriété de sécurité. Nous proposons donc un langage qui permet de formaliser un large ensemble de propriétés de sécurité. Ce langage exprime les activités système directes et transitives. Il permet de formaliser la majorité des propriétés de confidentialité et d'intégrité de la littérature. Il est adapté à l'expression de modèles de protection dynamique. A titre d'exemple, un nouveau modèle dynamique est proposé pour la protection des différents domaines d'usage d'un navigateur Web. Nous définissons une méthode de compilation du langage pour analyser les appels systèmes réalisés par les processus utilisateurs. La compilation repose sur la construction et l'analyse d'un graphe de flux d'information. Nous montrons qu'en pratique la complexité reste faible. Une implantation de ce langage est proposée sous la forme d'un contrôle d'accès mandataire dynamique pour Linux. Une expérimentation à large échelle a été réalisée sur des pots-de-miel à haute interaction. Notre protection a montré son efficacité aussi bien pour les serveurs que les postes client. Il présente des perspectives intéressantes aussi bien pour la protection des systèmes que pour l'analyse de vulnérabilités. Ce travail a contribué au projet SPACLik vainqueur du défi sécurité de l'ANR SEC&SI.
APA, Harvard, Vancouver, ISO, and other styles
14

Deville, Damien. "CamilleRT : un système d'exploitation temps réel extensible pour carte à microprocesseur." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Full text
Abstract:
Le logiciel carte est de plus en plus conçu pour supporter des contraintes temps réel. Par exemple, dans les cartes Java SIM, l'application principale èst chargée de générer une clef cryptographique de session pour chaque unité de communication consommée faute de quoi l'infrastructure GSM rompt la communication. Actuellement, les systèmes d'exploitation pour carte à puce ne gèrent l'aspect temps réel qu'au cas par cas. Ils ne permettent pas aux applications <<utilisateur>> de signifier des besoins en termes d'accès au microprocesseur, ceci pour des raisons de sécurité. Nous proposons une architecture logicielle embarquée autorisant le partage de la ressource microprocesseur entre les extensions de l'exo-noyau Camille. Cette architecture permet aux extensions de supporter des tâches temps réel au dessus de l'exo-noyau garantissant la disponibilité du microprocesseur. Nous avons montré les faiblesses des solutions initialement préconisées pour supporter du temps réel dans les exo-noyaux et nous proposons un moyen de faire collaborer les extensions sous la forme d'un partage d'une de leurs politiques d'ordonnancement et d'une mutualisation de leurs accès au microprocesseur. Nous avons mis en avant les propriétés fonctionnelles que nous attendons de ces ordonnanceurs collaboratifs et nous avons proposé une architecture distribuée permettant de charger ét de valider ces propriétés. Cette architecture de partage du microprocesseur a été validée expérimentalement dans CamilleRT.
APA, Harvard, Vancouver, ISO, and other styles
15

Charrière, Claude. "Etude et réalisation du logiciel d'exploitation d'un équipement de communication pour applications distribuées (E. C. A. D. )." Metz, 1992. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1992/Charriere.Claude.SMZ9233.pdf.

Full text
Abstract:
Dans le cadre d'un projet d'implantation de services domotiques/immotiques sur le réseau de télédistribution de la ville de Metz par le CERLOR, l'idée d'offrir des services grand public a été le point de départ de l'étude d'un terminal graphique intelligent, modulaire et ergonomique. La réalisation du logiciel de gestion de ce terminal, objet de ce mémoire a pour finalité d'une part de gérer de façon optimale l'ensemble des ressources matérielles de l'équipement (télécommande IR, port série, processeur vidéo) et d'autre part de constituer une plate-forme d'accueil et d'exécution des logiciels d'application résidents ou importés. Constitué de trois couches, ce logiciel comporte à la base un exécutif multitâche structure autour de deux mécanismes d'ordonnancement des processus et fonctionnant selon le principe de priorité et le principe du tourniquet. Il intégre une gestion dynamique, contiguë et compacte de la mémoire centrale. Le deuxième niveau comporte un interpréteur de commande et un gestionnaire d'écran utilisant une symbolique graphique (icônes, menus déroulants). La troisième couche logicielle renferme les programmes applicatifs, en nombre réduit à l'heure actuelle<br>In the order to set up domotic's and immotic's services, by the CERLOR on the broadcasting network of Metz town's, the idea to offer many great public services, was the start of this smart, graphic terminal study. The realisation of this software, object of this report had first to manage in an optimal way the whole of the materials means of the materials means of terminal and after to make up a reception or execution platform for the application softwares, residents or imports. Built in three layout, this software has at the bottom a multitak-executive, using two scheduler (for the intern and extern process) and running with priority and round-robin principale. It contain a dynamic, compact, adjacent managment unit of memory. The second level has an interpreter's command and a screen managment using graphic symbols (pop up menus, icons). The third layer sofware contain actually the application software in a reduced number
APA, Harvard, Vancouver, ISO, and other styles
16

Hunsinger, Frédéric. "Méthode de validation globale pour les systèmes monopuces." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0017.

Full text
Abstract:
LES TECHNOLOGIES ACTUELLES PERMETTENT L'INTEGRATION DE NOMBREUX COMPOSANTS SUR UNE SEULE PUCE. CES SYSTEMES APPELES SYSTEMES MONOPUCE (SOC) SONT UN ASSEMBLAGE HETEROGENE DE COMPOSANTS LOGICIELS El MATERIELS. LA PRESSION POUR LA QUALITE ET LES DELAIS DE MISE SUR LE MARCHE FONT DE LA VALIDATION DE CES SYSTEMES UN POINT CLE (70% DU TEMPS DE CONCEPTION). LA VERIFICATION DE L'INTEGRATION DES SOCS, REALISEE PAR SIMULATION, CONSISTE A VALIDER LES FONCTIONNALITES DES COMPOSANTS ET LEURS INTERCONNEXIONS DANS LI SYSTEME. ELLE EST COURAMMENT EFFECTUEE PAR L'EXECUTION DE PROGRAMMES LOGICIELS SUR LES PROCESSEURS EMBARQUES. CES PROGRAMMES SONT GENERALEMENT CONÇUS A BAS NIVEAU (ASSEMBLEUR, C) CE QUI REND DIFFICIL LA REALISATION DE SCENARII DE TEST COMPLEXES NECESSITANT DES MECANISMES DE SYNCHRONISATION SOPHISTIQUES. DE PLUS, LEUR UTILISATION N'EST PAS SUFFISANTE POUR EFFECTUER LA VALIDATION COMPLETE D'UN SYSTEME. AINSI, LES CONTRIBUTIONS PERMETTANT D'ACCELERER LA VALIDATION SONT: (1) LA DEFINITION D'UNE METHODOLOGIE DE VALIDATION UTILISANT PLUSIEURS TECHNIQUES DE VERIFICATION ADRESSANT LES PROBLEMES SPECIFIQUES AUX SOCS; (2) LA DEFINITION D'UNE NOUVELLE METHODE DE VERIFICATION DE L'INTEGRATION S'APPUYAN SUR DES PROGRAMMES DE TEST LOGICIEL DE HAUT NIVEAU REPOSANT SUR UN SYSTEME D'EXPLOITATION. CETTE METHODE A ETE VALIDEE SUR UN SYSTEME MONOPUCE INDUSTRIEL DESTINE AUX APPLICATIONS DE TELEVISION NUMERIQUE HAUTE DEFINITION<br>ACTUAL TECHNOLOGIES FACILITATE INTEGRATION OF MANY COMPONENTS ONTO A SINGLE CHIP. THESE SYSTEMS CALLED SYSTEM ON CHIP (SOC) ARE A HETEROGENEOUS ASSEMBL Y OF HARDWARE AND SOFTWARE COMPONENTS. AS QUALITY AND TIME TO MARKET CONSTRAINTS OF SOCS INCREASE, VALIDATION BECOMES THE KEY POINT (70% OF THE OVERALL DESIGN PROCESS). VERIFICATION OF THE INTEGRATION IS DONE THROUGH SIMULATION AND CONSISTS TO CHECK COMPONENT FUNCTIONALITIES AND INTERCONNECTIONS lN THE SYSTEM. IT IS OFTEN ACHIEVED BY EXECUTING SOFTWARE PROGRAMS ON THE EMBEDDED PROCESSORS. PROGRAMS ARE GENERALL Y DESIGNED AT LOW LEVEL (ASSEMBL Y, C) WHICH MAKES DIFFICUL T TO DESIGN COMPLEX TEST SCENARIOS THAT NEED SOPHISTICATED SYNCHRONISATION SCHEMES. FURTHERMORE, THEIR USE DOES NOT ENABLE PERFORMING THE COMPLETE SYSTEM VALIDATION. THE MAIN CONTRIBUTIONS OF THIS WORK FOR ACCELERATING VALIDATION ARE: (1) THE DEFINITION OF A VALIDATION METHODOLOGY USING DIFFERENT VERIFICATION TECHNIQUES TARGETING SPECIFIC SOC ISSUES; (2) THE DEFINITION OF A NEW VERIFICATION METHOD OF THE INTEGRATION BASED ON HIGH LEVEL SOFTWARE TEST PROGRAMS USING AN OPERATING SYSTEM. THIS METHOD WAS VALIDATED ON AN INDUSTRIAL SOC AIMED AT HIGH DEFINITION TELEVISION APPLICATIONS
APA, Harvard, Vancouver, ISO, and other styles
17

Lebee, Pierre. "Mise en œuvre d'une architecture spécialisée pour l'exécution d'un système d'exploitation réparti : Chorus." Compiègne, 1986. http://www.theses.fr/1986COMPI249.

Full text
Abstract:
Une nouvelle génération de systèmes d'exploitation est née durant ces dix dernières années : les systèmes d'exploitation répartis. Trois concepts fondamentaux ont été étudiés : la standardisation, la répartition et le parallélisme. CHORUS fait parti de ces systèmes. Ce projet a été développé à l'INRIA, une architecture pour des systèmes répartis a été réalisée. CHORUS offre une compatibilité UNIX, et est indépendant de l'architecture matérielle des machines et des réseaux sur lesquels il est implanté. Cette thèse présente une architecture d'ordinateur complète à base de Transputers et de Clippers adaptée à CHORUS. Ce projet est développé à l'UTC dans la division IlS. La caractéristique principale de cette machine réside dans le fait que le système d'exploitation est exécuté sur un processeur qui lui est dédié : le Transputer. Les tâches des utilisateurs sont exécutées sur le Qipper. Ces deux processeurs sont appelés : processeur Hétérogène Parallèle et Réparti (HPR). La Machine HPR (MHPR) est modulaire et se compose de cinq processeurs HPR. Les Transputers sont connectés entre eux de façon optimale par leurs lignes séries, évitant ainsi les problèmes d'encombrements dus à un bus commun. Les Clippers disposent d'une mémoire locale partagée accessible par leur bus privé, ou par le bus commun. Un troisième bus est utilisé pour le DMAC réalisant les opérations d'E/S (disque, ETHERNET, X2S) et pouvant accéder à toutes les mémoires locales partagées de la machine et à toutes les mémoires privées des Qippers. Ce bus permet d'effectuer les opérations d'BIS sans détériorer la bande passante du bus commun. Les MHPR peuvent être connectées ensemble par des réseaux ETHERNET ou X25<br>A new generation of operating systems is born during the last ten years : distributed operating system oriented network. Three key-concepts are strongly developed : standardization, distribution and parallelism. One of these systems is CHORUS (TM). This project launched at INRIA, has elaborated an architecture far distributed systems. CHORUS offers a UNIX compatibility, is independent of the hardware architecture and of networks. This paper describes a complete computer architecture fitted to CHORUS, based on transputers and Clippers. The project is developed at UTC in the IlS department. The major feature of the machine lays on the fact that the operating system is executed by a dedicated processor : the Transputer. User's tasks are executed on a Clipper. These two processors are called a Heterogeneous Parallel Distributed processor (HPD). The HPD Machine (HPDM) is modular and may be composed of rive HPD processors. Transputers are fully connected by their serial links, avoiding bus bottlenecks. Clippers have a local shared memory accessible by their private bus, or by a global bus. A third bus is used by the DMAC supporting l/0 operations (disk, ETHERNET, X2S) and accessing the local shared memories and Clipper's private memories. This bus permits l/O operations without decreasing global bus bandwidth. HPDMs may be connected together by ETHERNET or X25 network
APA, Harvard, Vancouver, ISO, and other styles
18

Laniel, Francis. "MemOpLight : vers une consolidation mémoire pour les conteneurs grâce à un retour applicatif." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS372.

Full text
Abstract:
Le déploiement et l'exécution d'applications dans le cloud sont aujourd'hui une réalité. L'existence de celui-ci est intrinsèquement liée à celle de la virtualisation. Ce concept consiste à découper une machine physique en plusieurs sous-machines, dites machines virtuelles, isolées les unes des autres. Plus récemment, les conteneurs se sont posés comme une alternative viable aux machines virtuelles. Les conteneurs sont plus légers que ces dernières et apportent les mêmes garanties d'isolation et de sécurité. Néanmoins, l'isolation, un conteneur ne peut affamer ses congénères, proposée est peut-être trop poussée. En effet, les mécanismes existants permettant l'isolation mémoire ne s'adaptent pas aux changements de charge de travail. Il n'est donc pas possible de consolider la mémoire, c'est-à-dire récupérer la mémoire inutilisée d'un conteneur pour en faire un meilleur usage. Pour répondre à ce problème et garantir, à la fois, l'isolation et la consolidation mémoire, nous proposons MemOpLight. Ce mécanisme s'adapte aux changements de charge de travail grâce à un retour applicatif. Chaque conteneur indique donc s'il a de bonnes performances pour guider la répartition de la mémoire. Celle-ci est récupérée aux conteneurs ayant de bonnes performances pour que les autres conteneurs puissent augmenter celles-ci. L'idée étant de trouver un équilibre mémoire où tous les conteneurs ont des performances satisfaisantes. MemOpLight permet d'augmenter la satisfaction des conteneurs de 13% comparé aux mécanismes existants<br>Nowadays, deploying and executing applications in the cloud is a reality. The cloud can not exist without virtualization. This concept consists of slicing physical machines into several sub-machines, isolated from one another, known as virtual machines. Recently, containers emerged as a viable alternative to virtual machines. Containers are lighter than virtual machines and bring the same isolation and security guarantees. Nonetheless, the isolation they offer is maybe too important. Indeed, existing mechanisms enforce memory isolation by ensuring that no container starves the others; however, they do not adapt to changes in workload. Thus, it is impossible to consolidate memory, i.e. to reclaim memory unused by some containers to make a better use of it. To answer this problem and ensure both isolation and consolidation, we introduce MemOpLight. This mechanism adapts to workload changes thanks to application feedback. Each container tells the kernel whether it has good or bad performance to guide memory reclaim. Memory is first reclaimed from containers with good performance in the hope that the others can improve their own performance. The idea is to find a balance where all containers have satisfying performance. MemOpLight increases container satisfactions by 13% compared to existing mechanisms
APA, Harvard, Vancouver, ISO, and other styles
19

Jarbaoui, Mohamed Tahar. "Sûreté de fonctionnement de systèmes informatiques : étalonnage et représentativité des fautes." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT008H.

Full text
Abstract:
Les travaux présentés dans ce mémoire possèdent un double objectif. Nous nous intéressons, dans un premier temps, à la définition d'un cadre conceptuel d'étalonnage de la sûreté de fonctionnement des systèmes informatiques, basé sur les techniques d'évaluation analytique et expérimentale de la sûreté de fonctionnement. Le but d'un étalon de sûreté de fonctionnement est de fournir un moyen générique pour la caractérisation du comportement des systèmes informatiques en présence de fautes, permettant ainsi la quantification de mesures de sûreté de fonctionnement. Le second objectif de ce mémoire est d'illustrer l'application de ce cadre conceptuel sur deux cas particuliers. Le premier cas d'application est relatif à la modélisation analytique de systèmes complexes tolérants aux fautes. Nous montrons par cet exemple le moyen d'identifier les paramètres significatifs d'un modèle analytique nécessitant d'être déterminés expérimentalement. Le deuxième exemple est relatif à l'étalonnage de la sûreté de fonctionnement d'un système opératoire. Ces étalons sont purement expérimentaux et se basent énormément sur l'injection de fautes. Nous mettons l'accent dans cette partie de la thèse sur l'étude d'une part de l'équivalence entre les fautes injectées et d'autre part de la représentativité des fautes injectées par rapport aux fautes réelles dans les systèmes opératoires.
APA, Harvard, Vancouver, ISO, and other styles
20

Kalakech, Ali. "Étalonnage de la sûreté de fonctionnement des systèmes d'exploitation : spécifications et mise en oeuvre." Toulouse, INPT, 2005. http://ethesis.inp-toulouse.fr/archive/00000110/.

Full text
Abstract:
Les développeurs des systèmes informatiques, y compris critiques, font souvent appel à des systèmes d'exploitation sur étagère. Cependant, un mauvais fonctionnement d'un système d'exploitation peut avoir un fort impact sur la sûreté de fonctionnement du système global, d'où la nécessité de trouver des moyens efficaces pour caractériser sa sûreté de fonctionnement. Dans cette thèse, nous étudions l'étalonnage de la sûreté de fonctionnement des systèmes d'exploitation par rapport aux comportements défectueux de l'application. Nous spécifions les propriétés qu'un étalon de sûreté de fonctionnement doit satisfaire. Après, nous spécifions les mesures et la mise en oeuvre des trois étalons destinés à comparer la sûreté de fonctionnement de différents systèmes d'exploitation. Ensuite, nous développons les prototypes des trois étalons. Ces prototypes servent à comparer les différents systèmes d'exploitation des familles Windows et Linux, et pour montrer la satisfaction des propriétés identifiées<br>System developers are increasingly resorting to off-the-shelf operating systems, even in critical application domains. Any malfunction of the operating system may have a strong impact on the dependability of the global system. Therefore, it is important to make available information about the operating systems dependability. In our work, we aim to specify dependability benchmarks to characterize the operating systems with respect to the faulty behavior of the application. We specify three benchmarks intended for comparing the dependability of operating systems belonging to different families. We specify the set of measures and the procedures to be followed after defining the set of properties that a dependability benchmark should satisfy. After, we present implemented prototypes of these benchmarks. They are used to compare the dependability of operating systems belonging to Windows and Linux, and to show that our benchmarks satisfy the identified properties
APA, Harvard, Vancouver, ISO, and other styles
21

Courbot, Alexandre. "Spécialisation tardive de systèmes Java embarqués pour petits objets portables et sécurisés." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00113765.

Full text
Abstract:
Java est une technologie attractive pour les équipements embarqués et contraints, de par ses propriétés de sûreté, de portabilité et de faible empreinte mémoire du code. Cependant, la taille imposante d'un environnement Java complet a obligé les producteurs d'équipements embarqués à utiliser des spécifications dégradées de Java aux fonctionnalités limitées, telles que J2ME ou Java Card. Ces spécialisations précoces de Java perdent la compatibilité au niveau applicatif avec l'édition standard, et ne peuvent ainsi s'adresser qu'à des cas d'utilisation particuliers.Notre travail consiste à permettre l'utilisation de l'édition standard de Java sur les systèmes contraints, au travers d'une spécialisation tardive et agressive du système qui intervient après déploiement de ses applications. L'occurrence tardive de la spécialisation permet de mieux déterminer les conditions d'utilisation du système, et donc de le spécialiser « sur mesure » par rapport aux applications qu'il exécute.Nos contributions sont les suivantes : dans un premier temps, nous définissons la notion de « romization », consistant à déployer un système hors-ligne avant de capturer et de transférer son image mémoire vers l'équipement sur lequel il doit s'exécuter. De cette définition, nous proposons une architecture de romization capable de capturer une image mémoire du système à n'importe quel moment de son exécution. Dans un second temps, nous traitons des moyens d'analyse et de spécialisation permettant de rendre cette image mémoire embarquable. L'évaluation effectuée montre que cette spécialisation tardive, appliquée à un environnement Java standard déployé, permet effectivement d'en obtenir une version minimaliste et embarquable sur un équipement contraint.
APA, Harvard, Vancouver, ISO, and other styles
22

Motsch, Cédric. "Mécanismes de gestion des flots d'éxécution d'exploitation écrit en langage Java." Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/motsch.pdf.

Full text
Abstract:
L'objectif de ce travail est d'établir des principes de construction et de gestion des flots d'exécution et des applications au sein d'un système d'exploitation écrit en langage Java. Il s'inscrit dans le cadre d'un projet visant à définir un environnement d'exécution Java minimal, appelé processeur bytecode, au dessus duquel un système d'exploitation est construit. Dans un premier temps on cherche à établir les modifications du langage Java nécessaires pour supporter l'exécution de plusieurs applications. Ensuite nous proposons des mécanismes permettant aux applications d'ordonnancer leurs propres flots, permettant une gestion de ressources décentralisée. Enfin nous introduisons un moyen de communication permettant d'utiliser le même flot entre des applications différentes et nous étudions ses conséquences sur le fonctionnement des applications. Les concepts et mécanismes introduits sont illustrés par quelques cas d'étude simples présentés à la fin de ce travail<br>This thesis aims to provide rules for managing execution flows in an operating system written in Java. It is part of a larger project which goal is to define a minimal Java execution environment, the bytecode processor, on the top of which we build an operating system. First, we discuss which add-ons we have to provide to the Java language in order to run several programs. Then we introduce the mechanisms needed for an application in order to schedule its own threads, introducing a decentralized resource management. Finally, we present a communication facility which uses the same execution flow across programs and we study how it affects the execution of programs. This thesis concludes with some study cases which illustrate the concepts and mechanisms we have introduced
APA, Harvard, Vancouver, ISO, and other styles
23

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Full text
Abstract:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur<br>This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
APA, Harvard, Vancouver, ISO, and other styles
24

Alzeer, Imad. "Analyse exhaustive du comportement temporel de tâches et messages temps réel." Nantes, 2004. http://www.theses.fr/2004NANT2098.

Full text
Abstract:
Dans cette thèse, nous présentons une méthode de vérification du respect des contraintes temporelles en se basant sur le calcul exact des deux bornes du temps de réponse des tâches et des messages dans un système temps réel. Les tâches et messages sont généralement périodiques, avec ou sans précédence, et leurs durées sont variables mais bornées. L'architecture support d'exécution est monoprocesseur et répartie. Le réseau support de l'étude est CAN. La communication locale entre les tâches s'effectue sans coût temporel, tandis que la communication distante s'effectue avec un coût dépendant des données. L'ordonnancement est globalement non préemptif, et les priorités sont associées statiquement aux tâches comme aux messages. L'échelle temporelle du traitement est discrète. Un lien de communication a le sens strict d'une contrainte de précédence. La complexité des structures de précédence dépend de la catégorie du système : pour un système monoprocesseur, elle peut être acyclique ou arborescente, à condition que le successeur soit moins prioritaire que ses prédécesseurs. Pour un système réparti, la précédence est en forme arborescente sans aucune contrainte sur l'ordre de priorité. Dans les deux cas, la précédence peut être généralisée<br>In this thesis, we present a method that permits to verify the satisfaction of timing constraints in real time systems. This method is based on the exact calculations for the two response time bounds of tasks and messages. Generally, tasks and messages are periodic, having precedence constants or not, and their durations are variable but bounded. The used model deals with mono-processor and distributed systems where the CAN network is used. Local communication between tasks on the same processor needs no time, while the distant tasks communicate through the network with a transmission time depending on data. Globally, the scheduling is non preemptive, priorities are attributed statically for tasks as for messages, and time is discrete. Complexity of precedence depends on the systems type : in mono-processor, it may be in-tree and /or out-tree provided that the successor is lower priority than its predecessors. In distributed systems, only precedence may be out-tree without restrictions on the priority order. In both categories, the precedence may be generalized
APA, Harvard, Vancouver, ISO, and other styles
25

Porto, Barreto Luciano. "Conception aisée et robuste d'ordonnanceurs de processus au moyen d'un langage dédié." Rennes 1, 2003. http://www.theses.fr/2003REN10037.

Full text
Abstract:
La politique d'ordonnancement de processus d'un système d'exploitation a une influence determinante sur la performance et sur la qualité de service des applications. Les politiques d'ordonnancement conventionnelles sont cependant inaptes à satisfaire les besoins des applications dans certains domaines tels que le multimédia ou les systèmes temps-réel, ce qui requiert le développement des politiques plus appropriées. Néanmoins, développer de nouveaux ordonnanceurs est une tache laborieuse qui requiert une connaissance approfondie du système d'exploitation et qui est souvent propice aux erreurs. Dans cette thèse nous proposons un cadre de développement permettant un développement aisé, robuste et efficace des politiques d'ordonnancement dans le noyau système. Ce cadre repose sur un langage haut niveau, nommé Bossa, qui facilite la programmation des politiques d'ordonnancement en offrant des abstractions plus proches au programmeur du domaine. Ainsi, le développeur peut se concentrer sur la conception de la politique sans avoir à se préoccuper des détails de fonctionnement du noyau liés à l'ordonnancement. Une politique d'ordonnancement Bossa est traduite en code qui peut être intégré dans le noyau du système pour remplacer l'ordonnanceur par défaut. Cette approche rend également le processus développement plus sûr car il est possible de vérifier la cohérence d'une politique d'ordonnancement Bossa avant son intégration dans le noyau. Nous avons utilisé notre approche dans le développement de nombreuses politiques d'ordonnancement telles que des politiques à temps partagé ou basées sur la notion de priorité et des extensions basées sur la notion de progrès des applications. Nous avons évalué la performancedes ordonnanceurs développés avec Bossa dans le cadre des programmes de benchmarks spécifiques à l'ordonnancement de processus ainsi que sur l'analyse de l'exécution des applications réelles.
APA, Harvard, Vancouver, ISO, and other styles
26

Georget, Laurent. "Suivi de flux d'information correct pour les systèmes d'exploitation Linux." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S040/document.

Full text
Abstract:
Nous cherchons à améliorer l'état de l'art des implémentations de contrôle de flux d'information dans les systèmes Linux. Le contrôle de flux d'information vise à surveiller la façon dont l'information se dissémine dans le système une fois hors de son conteneur d'origine, contrairement au contrôle d'accès qui ne peut permettre d'appliquer des règles que sur la manière dont les conteneurs sont accédés. Plusieurs défis scientifiques et techniques se sont présentés. Premièrement, la base de code Linux est particulièrement grande, avec quinze millions de lignes de code réparties dans trente-mille fichiers. La première contribution de cette thèse a été un plugin pour le compilateur GCC permettant d'extraire et visualiser aisément les graphes de flot de contrôle des fonctions du noyau. Ensuite, le framework des Linux Security Modules qui est utilisé pour implémenter les moniteurs de flux d'information que nous avons étudiés (Laminar [1], KBlare [2] et Weir [3]) a été conçu en premier lieu pour le contrôle d'accès, et non de flux. La question se pose donc de savoir si le framework est implémenté de telle sorte à permettre la capture de tous les flux produits par les appels système. Nous avons créé et implémenté une analyse statique permettant de répondre à ce problème. Cette analyse statique est implémenté en tant que plugin GCC et nous a permis d'améliorer le framework LSM pour capturer tous les flux. Enfin, nous avons constaté que les moniteurs de flux actuels n'étaient pas résistants aux conditions de concurrence entre les flux et ne pouvaient pas traiter certains canaux ouverts tels que les projections de fichiers en mémoire et les segments de mémoire partagée entre processus. Nous avons implémenté Rfblare, un nouvel algorithme de suivi de flux, pour KBlare, dont nous avons prouvé la correction avec Coq. Nous avons ainsi montré que LSM pouvait être utilisé avec succès pour implémenter le contrôle de flux d'information, et que seules les méthodes formelles, permettant la mise en œuvre de méthodologie, d'analyses ou d'outils réutilisables, permettaient de s'attaquer à la complexité et aux rapides évolutions du noyau Linux<br>We look forward to improving the implementations of information flow control mechanisms in Linux Operating Systems. Information Flow Control aims at monitoring how information disseminates in a system once it is out of its original container, unlike access control which can merely apply rule on how the containers are accessed. We met several scientific and technical challenges. First of all, the Linux codebase is big, over fifteen millions lines of code spread over thirty three thousand files. The first contribution of this thesis is a plugin for the GCC compiler able to extract and let a user easily visualize the control flow graphs of the Linux kernel functions. Secondly, the Linux Security Modules framework which is used to implement the information flow trackers we have reviewed (Laminar, KBlare, and Weir) was designed in the first place to implement access control, rather than information flow control. One issue is thus left open: is the framework implemented in such a way that all flows generated by system calls can be captured? We have created and implemented static analysis to address this problem and proved its correction with the Coq proof assistant system. This analysis is implemented as a GCC plugin and have allowed us to improve the LSM framework in order to capture all flows. Finally, we have noted that current information flow trackers are vulnerable to race conditions between flows and are unable to cover some overt channels of information such as files mapping to memory and shared memory segments between processes. We have implemented Rfblare, a new algorithm of flow tracking, for KBlare. The correction of this algorithm has been proved with Coq. We have showed that LSM can be used successfully to implement information flow control, and that only formal methods, leading to reusable methodology, analysis, tools, etc., are a match for the complexity and the fast-paced evolution of the Linux kernel
APA, Harvard, Vancouver, ISO, and other styles
27

Arnaud, Alexis. "Utilisation prévisible de caches d'instruction dans les systèmes temps réel strict." Rennes 1, 2006. http://www.theses.fr/2006REN1S016.

Full text
Abstract:
Les caches d'instructions sont largement utilisés afin d'améliorer les performances moyennes des systèmes informatiques généralistes. Cependant, leur utilisation dans les systèmes temps réel strict, devant respecter des contraintes temporelles sur l'éxécution de leurs tâches sous peine de graves conséquences, introduit de l'indéterminisme. Dans ce travail, une technique de verrouillage dynamique de cache est proposée afin de remédier à ce problème. Elle vise l'amélioration des performances de pire cas par rapport à un système sans cache d'instructions. Etant donné une tâche, des états du cache sont calculés hors éxécution. De plus, sont déterminées des adresses à chacune desquelles le cache est chargé avec l'un de ces états puis verrouillé. Ensuite, nous présentons une implémentation du rechargement de cache ne modifiant pas le code de la tâche. Enfin, l'impact de notre approche est évalué sur les performances de pire cas et de cas moyen d'un système éxécutant une tâche.
APA, Harvard, Vancouver, ISO, and other styles
28

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Guérin, Xavier. "Approche efficace de développement de logiciel embarqué pour des systèmes multiprocesseurs sur puce." Grenoble, 2010. http://www.theses.fr/2010GRENM019.

Full text
Abstract:
Cette dissertation montre que des applications embarquées complexes peuvent tirer partie efficacement de plateformes MP-SoC hétérogènes tout en respectant les critères de flexibilité, mise à l'échelle, portabilité et time-to-market. Elle fait la description d'un flot de conception de logiciel embarqué amélioré combinant un générateur de code, GECKO, et un environnement logiciel innovant, APES, afin d'obtenir un haut niveau d'efficacité. La contribution ainsi présentée est double : 1) un flot de conception de logiciel embarqué amélioré avec un ensemble d'outils permettant la construction automatique d'objets binaires minimaux pour une application donnée ciblant une plateforme MP-SoC donnée, et 2) un ensemble de composants logiciels modulaire et portable incluant des mécanismes de systèmes d'exploitations traditionnels ainsi que le support de multiples processeurs<br>This dissertation shows that complex, embedded software applications can effectively operate heterogeneous MP-SoC with respect to flexibility, scalability, portability, and Time-To- Market. It presents an improved embedded software design flow that combines an application code generator, GECKO, and a novel software framework, APES, to achieve a high level of efficiency. Our contribution is twofold: 1) an improved embedded software design flow with several tools that enable the automatic construction of minimal and optimized binaries for a given application targeting a given MP-SoC, and 2) a modular and portable set of software components that includes traditional operating system mechanisms as well as the support for multiple processors
APA, Harvard, Vancouver, ISO, and other styles
30

Vallée, Geoffroy. "Conception d'un ordonnanceur de processus adaptable pour la gestion globale des ressources dans les grappes de calculateurs : mise en oeuvre dans le système d'exploitation Kerrighed." Rennes 1, 2004. http://www.theses.fr/2004REN10011.

Full text
Abstract:
Les travaux de cette thèse, qui s'inscrivent dans la conception du système d'exploitation à image unique pour grappe Kerrighed, portent sur l'étude et la conception d'un ordonnanceur global modulaire et adaptable permettant le développement simple de politiques d'ordonnancement pour grappe. Cet ordonnanceur global repose sur des mécanismes de gestion globale des processus (création distante, duplication, migration, création/restauration de points de reprise). Ces mécanismes se fondent sur un concept unique appelé processus fantôme de virtualisation de processus et tirent profit de la mémoire virtuellement partagée de Kerrighed pour la gestion des threads. Grâce à ces mécanismes, Kerrighed offre une interface de programmation POSIX thread, permettant, par exemple, l'exécution d'applications OpenMP sur grappe. Les travaux effectués ont été intégrés au prototype Kerrighed, logiciel libre diffusé, et validés par l'exécution d'applications industrielles fournies par EDF R&D.
APA, Harvard, Vancouver, ISO, and other styles
31

Boule, Ivan. "Fenix : un système multifenêtres intégré à Unix." Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00324433.

Full text
Abstract:
Développement d'un système multi-fenetres permettant l'exécution parallèle de plusieurs applications interactives disposant chacune d'un nombre quelconque de fenêtres sur l'écran de façon totalement transparente aux applications. L'architecture du système repose sur une séparation stricte entre, d'une part le partie opératoire regroupant les fonctions de base et, d'autre part, la partie contrôle qui gère les commandes mises à la disposition de l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
32

Charra, Olivier. "Conception de noyaux de systèmes embarqués reconfigurables." Grenoble 1, 2004. http://www.theses.fr/2004GRE10047.

Full text
Abstract:
La perspective de l'émergence d'un environnement global du traitement de l'information dans lequel la plupart des objets physiques qui nous entourent seront équipés de processeurs, dotés de capacités de communication et interconnectés par le biais de réseaux divers, nous oblige à repenser les systèmes informatiques. Aux systèmes traditionnels, lourds, monolithiques, et peu évolutifs, nous devons préférer les systèmes légers, flexibles, et reconfigurables. Cette thèse présente une architecture permettant la conception et le développement de noyaux de systèmes d'exploitation flexibles et reconfigurables à destination du monde de l'embarqué<br>The vision of the emergence of a global environment for the information management where most of the physical object around us will be equipped with processors, communication capabilities and interconnected through various networks forces us to redesign the computing systems. Instead of heavy, monolithic and non-evolutive systems, we must design light, flexible and reconfigurable systems. This work presents a new architecture allowing the conception and development of flexible and reconfigurable operating system kernels for embedded systems
APA, Harvard, Vancouver, ISO, and other styles
33

Deligné, Eddy. "Hyperviseur de protection d'exécutables : étude, développement et discussion." Palaiseau, Ecole polytechnique, 2014. http://www.theses.fr/2014EPXX0072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Duquennoy, Simon. "Smews : un système d'exploitation dédié au support d'applications Web en environnement contraint." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10184/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte de l'extension des technologies du Web à l'informatique enfouie. Le Web des objets qui en résulte ouvre les portes à de nouvelles interactions en garantissant une interopérabilité aussi bien au niveau réseau qu'applicatif. Nous adressons la conception du système logiciel jouant le rôle de serveur Web au sein d'équipements fortement contraints, tels que des cartes à puce ou des capteurs. Les solutions de l'état de l'art permettant de supporter une pile protocolaire standard à faible empreinte mémoire exigent de sacrifier les performances et les fonctionnalités du système. La thèse défendue est qu'en dédiant un système d'exploitation au support d'une famille d'applications de haut niveau, nous sommes en mesure de produire un logiciel performant et consommant très peu de ressources. Nous étudions une architecture basée sur un macro-noyau intégrant gestion du matériel, pile de communication et conteneur d'applications, présentant une interface adaptée aux besoins de ces dernières<br>The context of this thesis is the extension of Web technologies to ambient computing. The resulting Web of Things allows novel interactions by guaranteeing interoperability at both network and applications levels. We address the design of the software system behaving as a Web server and embedded in strongly constrained devices such as smart cards or sensors. The state of the art solutions allowing to run a lightweight standard protocol stack involve poor performances and sacrifice the system features. The thesis is that by dedicating an operating system to the support of a high-level family of applications, we can produce an efficient software consuming a few resources. We study an architecture based on an macro-kernel integrating the hardware management, the communications stack and the applications container, providing an interface that fits the applications needs
APA, Harvard, Vancouver, ISO, and other styles
35

Tahir, Hassane. "Aide à la contextualisation de l’administration de base de données." Paris 6, 2013. http://www.theses.fr/2013PA066789.

Full text
Abstract:
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs<br>The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
APA, Harvard, Vancouver, ISO, and other styles
36

Vermot-Gauchy, Robert. "Utilisation du macro-traitement dans différents domaines de l'informatique : application à un système type S/370." Nice, 1987. http://www.theses.fr/1987NICE4152.

Full text
Abstract:
Présentation des objectifs et des principes de la macroprogrammation. Une méthode pour la construction automatique de fichiers ou de programmes est proposée. Les nombreuses possibilités offertes par le macrogénérateur de l'assembleur du S/370 sont présentées
APA, Harvard, Vancouver, ISO, and other styles
37

Hiet, Guillaume. "Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'information au sein du système d'exploitation et des applications : mise en oeuvre sous Linux pour les programmes Java." Rennes 1, 2008. http://www.theses.fr/2008REN1S171.

Full text
Abstract:
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. L’approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous souhaitons surveiller un système comprenant un OS et des logiciels COTS dont des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture ainsi que les résultats de nos expérimentations<br>Computer security is now a crucial issue. We are convinced that policy-based intrusion detection is a promising approach. This kind of detection is only based on both a model of the system state evolution and a model of the security policy. We aim at using policy-based intrusion detection systems (IDS) to monitor a system with OS running COTS software and web applications. We propose a detection model that can monitor information flow between information containers. We define a generic IDS architecture implementing the proposed model. This architecture is based on the collaboration between several IDS monitoring information flows at different granularity levels. We present an implementation of this architecture and the results of the experiments we realized on realistic Java applications
APA, Harvard, Vancouver, ISO, and other styles
38

Leclercq, Claude. "Un problème de système expert temps réel : la gestion de centres informatiques." Lille 1, 1990. http://www.theses.fr/1990LIL10143.

Full text
Abstract:
Le pilotage des centres informatiques est une tache délicate qui ne peut être confiée qu'à un ingénieur système. Sa compétence est basée sur trois qualités : une bonne connaissance technique, une longue expérience et une capacité à trouver rapidement des solutions efficaces aux problèmes qui lui sont posés. Il est ce qu'on appelle un expert. Au vu de ces caractéristiques, nous avons décidé de développer sur micro-ordinateur un système expert d'assistance au pilotage des centres informatiques, dont le but est de surveiller le fonctionnement d'un grand ordinateur. La caractéristique originale de ce système expert est de fonctionner en temps réel. Ceci pose des problèmes de variables à affectations multiples qui peuvent être à l'origine d'inconsistances dans la base de faits. De plus, la quantité d'informations gérées aurait été incompatible avec la contrainte du temps réel si nous n'avions pas eu recours à une méthode particulière de gestion des inconsistances et d'optimisation de l'inférence. Cette méthode, telle qu'elle a été implémentée dans le logiciel, fait l'objet d'une étude théorique détaillée dans le mémoire. Le fruit de ce travail est un progiciel commercialisé : « SEAT », dont l'utilisation a déjà fourni de bons résultats.
APA, Harvard, Vancouver, ISO, and other styles
39

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.<br>The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
40

Guez, Stéphane. "Interix : conception et réalisation d'un système d'aide intelligent sur Unix." Châtenay-Malabry, Ecole centrale de Paris, 1987. http://www.theses.fr/1987ECAP0027.

Full text
Abstract:
Interix est un système d’aide intelligent pour le système d’exploitation Unix. Interix permet aux utilisateurs débutants de poser des questions en français sur le fonctionnement et l’utilisation d’Unix (exemple : Comment effacer un fichier ?). Les réponses sont également rédigées en français. La difficulté des problèmes que posent la compréhension des requêtes d’un utilisateur débutant et la construction d’une représentation sémantique formalisée de leur signification nous a conduit à envisager l’ensemble du problème du point de vue de l’élaboration des réponses, considérée comme un véritable en soi nécessitant une réflexion particulière, des traitements et des connaissances spécifiques. En suivant un certain nombre de principes généraux, les réponses ont été conçues comme des exposés sur Unix construits et cohérents, adaptés à la situation personnelle de l’utilisateur, comme des explications, à la fois pertinentes et didactiques, compréhensibles et complètes, destinées à enrichir les connaissances de l’utilisateur et à le former à la maitrise d’Unix. Nous nous sommes particulièrement intéressés à l’analyse et à la représentation des connaissances, réparties en deux ensembles : une description opératoire des concepts du domaine, destinée à établir le lien entre les intentions de l’utilisateur et les solutions disponibles ; une représentation très riche des commandes, de leur fonctionnement et de toutes les informations pouvant intéresser l’utilisateur, destinée à servir de base au processus d’élaboration du contenu des réponses. Ce processus consiste à sélectionner les informations pertinentes, à les évaluer en fonction des données contextuelles disponibles et à les organiser.
APA, Harvard, Vancouver, ISO, and other styles
41

Meumeu, Yomsi Patrick. "Prise en compte du coût exact de la préemption dans l'ordonnancement temps réel monoprocesseur avec contraintes multiples." Paris 11, 2009. http://www.theses.fr/2009PA112080.

Full text
Abstract:
Nous nous intéressons aux problèmes d'ordonnancement de tâches périodiques dans les systèmes temps réel critiques (durs). Dans la littérature, l'approximation du coût de la préemption, qui est la partie variable du coût du système d'exploitation (OS), dans le WCET des tâches conduit à faire un compromis entre gaspillage et sûreté de l'ordonnançabilité, ce qui n'est pas satisfaisant. Quelques travaux ont été proposés pour résoudre ce problème mais les résultats conduisent à la prise en compte soit d'un nombre minimal soit d'un nombre maximal de préemptions. Dans cette thèse, nous introduisons un nouveau modèle pour résoudre le problème général de l'ordonnancement de systèmes temps réel durs avec des contraintes multiples telles que la précédence, la périodicité stricte, la latence et la gigue, tout en tenant compte du coût exact de la préemption pour tous les scénarii de premières activations de toutes les tâches (simultané ou non simultané). Nous avons développé un logiciel appelé SAS (Simulation Analysis of Scheduling) pour mettre à la disposition d'utilisateurs les résultats que nous avons obtenus. Sa principale contribution, par rapport à d'autres outils commerciaux et académiques du même type, est qu'il prend en compte le coût exact de préemption au cours de l'analyse d'ordonnançabilité avec des contraintes multiples<br>We are interested in the scheduling problem of periodic tasks in critical (hard) real-time systems. In the literature, the approximation of the preemption cost, which is the variable part of the Operating System (OS) cost, in the WCET of tasks leads us to a compromise between waste and safety of the schedulability, that is not satisfactory. Some works have been proposed to solve this problem but the results led to taking into account either a minimum or a maximum number of preemptions. In this thesis, we introduce a new model to solve the general scheduling problem of hard real-time systems with many constraints such as precedence, strict periodicity, latency and jitter, while taking into account the exact cost of preemption for all scenarios of first activation for all tasks (simultaneous or not simultaneous). We have developed a software called SAS (Simulation Analysis of Scheduling) to make them available to users the results we have achieved. The main contribution of SAS, compared to other commercial and academic tools of the same type, is that it takes into account the exact cost of preemption during the schedulability analysis
APA, Harvard, Vancouver, ISO, and other styles
42

Royon, Yvan. "Environnements d'exécution pour passerelles domestiques." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00271481.

Full text
Abstract:
Le marché des passerelles domestiques évolue vers un nouveau modèle économique, où de multiples acteurs sont amenés à fournir des services vers nos domiciles : multimédia à la demande, domotique, télésécurité, aide aux personnes âgées ou handicapées\ldots<br /><br />Ce nouveau modèle économique a des répercussions techniques sur les passerelles domestiques. Ces équipements à ressources limitées doivent alors supporter le déploiement, l'exécution et la gestion de plusieurs éléments logiciels (modules), en provenance de fournisseurs différents. Ceci se traduit par des besoins en terme d'isolation d'exécution locale, de gestion à distance, d'infrastructure de déploiement et de modèle de programmation.<br /><br />Dans ces travaux, nous proposons de répondre à ces quatre familles de besoins en nous appuyant sur deux types d'environnements d'exécution : Java/OSGi et C/Linux.<br /><br />Nous proposons de combler les fonctionnalités manquantes à ces deux environnements, afin d'obtenir un système conforme au modèle multi-services.
APA, Harvard, Vancouver, ISO, and other styles
43

Dubuc, Théophile. "Détection d'anomalies de latence dans les systèmes distribués avec eBPF." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0109.

Full text
Abstract:
Le Cloud Computing est en plein essor pour répondre à une demande croissante de puissance de calcul dans l'industrie, tout en conservant des coûts modérés. Les technologies émergentes, comme la réalité virtuelle ou augmentée, ou les jumeaux numériques apportent de nouvelles contraintes et exigences pour pouvoir être portées dans le Cloud. Le temps de réponse de ces applications doit être le plus faible possible, ce qui se traduit par de fortes exigences sur la latence d'accès aux ressources virtuelles et aux données des fournisseurs d'infrastructure et de service Cloud tels qu'Outscale. Les technologies modernes de virtualisation permettent d'atteindre des latences proches de celles des machines physiques pour la plupart des composants d'une machine virtuelle, dont le processeur et la mémoire. En revanche, la pile de stockage des machines virtuelles a souvent des performances limitées en raison de sa complexité. Les fournisseurs de Cloud ont donc intérêt à optimiser leur architecture de stockage. Cela implique de diagnostiquer ses défauts et d'évaluer l'impact des changements de configuration et de matériel. Cela passe par la mesure des performances du stockage, dont les métriques critiques sont la latence (temps de réponse) et les IOps (opérations d'entrée/sortie par seconde), qui sont sujettes à des garanties de la part du fournisseur vis-à-vis de ses clients. Cependant, le contexte particulier d'un fournisseur de Cloud rend les outils traditionnels inadaptés, car il requiert des informations spécifiques, avec des contraintes supplémentaires dues à l'architecture des datacenters, l'opacité des applications executées et au matériel industriel utilisé. Cette thèse se consacre à l'étude de l'observabilité et la détection d'anomalies de latence dans les systèmes distribués et en particulier du stockage dans le contexte d'un fournisseur de Cloud. Elle explore l'utilisation de eBPF, une technologie qui permet de placer des sondes dans le noyau de Linux de manière sécurisée et efficace, afin de construire des outils d'observabilité du stockage qui remplissent les contraintes d'un fournisseur de Cloud. Ce manuscrit présente trois contributions principales. Une première se concentre sur la surveillance en continu du système de stockage, typiquement NFS (Network File System), pour détecter rapidement les problèmes et alimenter la prise de certaines décisions. Cette méthode est implémentée dans un outil nommé TrackIOPs, qui extrait la latence et les IOps de NFS en temps réel, avec un surcoût négligeable sur les performances de l’architecture de stockage. La seconde contribution est une méthode et pour estimer l’état de la connexion réseau entre un client (typiquement une machine hôte du Cloud) et un serveur RPC (Remote Procedure Call, un protocole de transport sur lequel se basent de nombreux services distribués dont NFS). En extrayant des informations de latence sur le réseau depuis la couche RPC directement, cette méthode permet d’améliorer la qualité des traceurs surveillant n’importe quelle application basée sans nécessiter de filtres réseau intrusifs. Un outil appelé TrackRPC a été developpé et intégré à TrackIOPs d'après cette méthode pour enrichir les métriques extraites par celui-ci. Enfin, l’objectif de la troisième contribution est de faciliter l’accès à la technologie eBPF pour comprendre et inspecter le comportement des sous-systèmes du noyau de Linux, sans avoir besoin d'écrire de code, et donc sans nécessiter de grande expertise du noyau ni de eBPF. Autograph génère un traceur eBPF sur un ou plusieurs sous-sysèmes choisis par l'utilisateur. Le traceur généré donne une visualisation du workflow du noyau lors de l’exécution d’une application cible, et surveille les latences dans le noyau pour signaler toute anomalie durant l’exécution<br>Cloud Computing is booming to meet the growing demand for computing power in the industry while maintaining moderate costs. Emerging technologies, such as virtual or augmented reality, or digital twins, bring new constraints and requirements to be able to be deployed in the Cloud. The response time of these applications must be as low as possible, which results in strong requirements for latency when accessing virtual resources and data from Cloud infrastructure and service providers such as Outscale. Modern virtualization technologies allow latencies close to those of physical machines to be achieved for most components of a virtual machine, including the processor and memory. However, the storage stack of virtual machines often has limited performance due to its complexity. Cloud providers, therefore, have an interest in optimizing their storage architecture. This involves diagnosing its shortcomings and evaluating the impact of configuration and hardware changes. This process includes measuring storage performance, with critical metrics being latency (response time) and IOps (input/output operations per second), which are subject to guarantees from the provider to its clients. However, the specific context of a Cloud provider makes traditional tools unsuitable, as it requires specific information, with additional constraints due to datacenter architecture, the opacity of running applications, and the industrial hardware in use. This thesis focuses on the study of observability and latency anomaly detection in distributed systems, particularly storage, in the context of a Cloud provider. It explores the use of eBPF, a technology that allows probes to be placed in the Linux kernel securely and efficiently, to build storage observability tools that meet the constraints of a Cloud provider. This manuscript presents three main contributions. The first focuses on the continuous monitoring of the storage system, typically NFS (Network File System), to quickly detect problems and support decision-making. This method is implemented in a tool called TrackIOPs, which extracts NFS latency and IOps in real-time, with negligible overhead on storage architecture performance. The second contribution is a method to estimate the state of the network connection between a client (typically a Cloud host machine) and an RPC (Remote Procedure Call) server, a transport protocol on which many distributed services, including NFS, are based. By extracting latency information on the network directly from the RPC layer, this method improves the quality of trace monitoring for any application, without requiring intrusive network filters. A tool called TrackRPC was developed and integrated into TrackIOPs using this method to enrich the metrics extracted by it. Finally, the objective of the third contribution is to facilitate access to eBPF technology to understand and inspect the behavior of Linux kernel subsystems without the need to write code, and thus without requiring deep kernel or eBPF expertise. Autograph generates an eBPF tracer for one or more subsystems chosen by the user. The generated tracer provides a visualization of the kernel workflow during the execution of a target application and monitors kernel latencies to signal any anomalies during execution
APA, Harvard, Vancouver, ISO, and other styles
44

Albinet, Arnaud. "Caractérisation de la sûreté de fonctionnement des systèmes d'exploitation en présence de pilotes défaillants." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00010056.

Full text
Abstract:
Les pilotes de périphériques composent désormais une part essentielle des systèmes d'exploitation. Plusieurs études montrent qu'ils sont fréquemment à l'origine des dysfonctionnements des systèmes opératoires. Dans ce mémoire, nous présentons une méthode pour l'évaluation de la robustesse des noyaux face aux comportements anormaux des pilotes de périphériques. Pour cela, après avoir analysé et précisé les caractéristiques des échanges entre les pilotes et le noyau (DPI - Driver Programming Interface), nous proposons une technique originale d'injection de fautes basée sur la corruption des paramètres des fonctions manipulées au niveau de cette interface. Nous définissons différentes approches pour l'analyse et l'interprétation des résultats observés pour obtenir des mesures objectives de sûreté de fonctionnement. Ces mesures permettent la prise en compte de différents points de vue afin de répondre aux besoins réels de l'utilisateur. Enfin, nous illustrons et validons l'applicabilité de cette méthode par sa mise en Suvre dans le cadre d'un environnement expérimental sous Linux. La méthode proposée contribue à la caractérisation de la sûreté de fonctionnement des noyaux vis-à-vis des défaillances des pilotes du système. L'impact des résultats est double : a) permettre au développeur de tels logiciels d'identifier les faiblesses potentielles affectant la sûreté de fonctionnement du système, b) aider un intégrateur dans le choix du composant le mieux adapté à ses besoins.
APA, Harvard, Vancouver, ISO, and other styles
45

Oliveri, Andrea. "A Zero-Knowledge Approach to Memory Forensics." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS312.

Full text
Abstract:
L'essor rapide des appareils embarqués et des objets IoT entraîne une multiplication des systèmes d'exploitation et des architectures de processeurs, qui ne sont généralement pas pris en charge par les outils forensiques actuels et nécessitent un effort considérable pour être adaptés. Pour surmonter ce problème, nous introduisons, le concept d’analyse forensique de la mémoire à connaissance nulle : réaliser une analyse forensique de la mémoire sans aucune connaissance du système d’exploitation sous-jacent. En supposant que nous ayons effectué un dump mémoire du système d’exploitation inconnu, en utilisant uniquement les informations dérivées de la configuration matérielle de la machine, nous affirmons qu’il est possible de reconstruire l’espace d’adressage du noyau de manière indépendante du système d’exploitation. À partir de ceux-ci, il est possible de reconstruire les structures de données du noyau en mémoire en utilisant uniquement leur topologie<br>The rapid increase of embedded devices and IoT objects is leading to a multiplication of operating systems and processor architectures, which are generally not supported by current forensic tools and require considerable effort to adapt. To overcome this problem, we introduce the concept of zero-knowledge memory forensics: performing a memory forensic analysis without any knowledge of the underlying operating system. Assuming that we have performed a memory dump of the unknown operating system, using only information derived from the machine's hardware configuration, we claim that it is possible to reconstruct the kernel address space independently of the operating system. From these, it is possible to reconstruct kernel data structures in memory using only their topology
APA, Harvard, Vancouver, ISO, and other styles
46

Blanc, Mathieu. "Sécurité des systèmes d'exploitation répartis : architecture décentralisée de méta-politique pour l'administration du contrôle d'accès obligatoire." Phd thesis, Université d'Orléans, 2006. http://tel.archives-ouvertes.fr/tel-00460610.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au contrôle d'accès obligatoire dans les systèmes d'exploitation répartis. Nous présentons une approche novatrice fondée sur un modèle de méta-politique pour l'administration décentralisée des noeuds du système réparti. Ces travaux visent la sécurité des grands réseaux partagés, i.e. les clusters, grilles ou ensembles de noeuds coopérant par Internet. L'architecture que nous proposons garantit des propriétés de sécurité globales et une bonne tolérance aux pannes. Ces propriétés, non prises en comptes par les modèles de contrôle d'accès classiques, sont obtenues grâce à notre méta-politique. Nous en présentons une formalisation, puis nous exhibons une technique de vérification garantissant l'absence de flots d'information illégaux au sein des noeuds du réseau. Nous décrivons ensuite comment le modèle peut être étendu pour la détection d'intrusions. Enfin, nous proposons une implantation supportant différents systèmes cibles tels que SELinux et grsecurity.
APA, Harvard, Vancouver, ISO, and other styles
47

Bazm, Mohammad Mahdi. "Unified isolation architecture and mechanisms against side channel attacks for decentralized cloud infrastructures." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4042.

Full text
Abstract:
Depuis les travaux de Ristenpart [Ristenpart et al., 2009], les attaques par canaux auxiliaires se sont imposées comme un enjeu sécurité important pour les environnements virtualises, avec une amélioration rapide des techniques d’attaque, et de nombreux travaux de recherche pour les détecter et s’en prémunir. Ces attaques exploitent le partage de ressources matérielles comme les différents niveaux de cache processeur entre des locataires multiples en utilisant la couche de virtualisation. Il devient alors possible d’en contourner les mécanismes de sécurité entre différentes instances virtualisées, par exemple pour obtenir des informations sensibles comme des clés cryptographiques. L’analyse des défis d’isolation et des formes d’attaques par canaux auxiliaires basées sur le cache dans les infrastructures virtualisées met en évidence différentes approches pour les détecter ou les contrer, entre machines virtuelles ou conteneurs Linux. Ces approches se distinguent selon la couche logicielle ou seront appliquées les contre-mesures, applicative, système ou matérielle. La détection reste principalement effectuée au niveau de la couche système ou de virtualisation, ce niveau permettant simplement d’analyser le comportement des instances virtualisées. De nouvelles formes distribuées d’attaques ont aussi pu être mises en évidence. Pour la détection, nous explorons une approche combinant des compteurs de performance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la configuration du système plus dynamique et plus difficilement attaquable, a différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invite ou dans l’hyperviseur, avec de plus un surcoût très faible en performance. Nous explorons enfin l’utilisation de techniques d’exécution matérielle a base d’enclaves comme Intel SGX (Software Guard Extensions) pour assurer une exécution repartie de confiance de conteneurs Linux sur des couches logicielles qui ne le sont pas nécessairement. Ceci s’est traduit par la proposition d’un modèle d’exécution repartie sur infrastructure Fog pour conteneurs Linux. Il s’agit d’un premier pas vers une infrastructure repartie sécurisée Fog illustrant le potentiel de telles technologies<br>Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannelattacks is raising in virtualized environments such as cloud computing infrastructuresbecause of rapid improvements in the attack techniques. Therefore, the mitigationand the detection of such attacks have been getting more attention in these environments,and consequently have been the subject of intense research works.These attacks exploit for instance sharing of hardware resources such as the processorin virtualized environments. Moreover, the resources are often shared between differentusers at very low-level through the virtualization layer. As a result, such sharing allowsbypassing security mechanisms implemented at virtualization layer through such a leakysharing. Cache levels of the processor are the resources which are shared between instances,and play as an information disclosure channel. Side-channel attacks thus use this leakychannel to obtain sensitive information such as cryptographic keys.Different research works are already exist on the detection/mitigation of these attackin information systems. Mitigation techniques of cache-based side-channel attacks aremainly divided into three classes according to different layer of application in cloud infrastructures(i.e., application, system, and hardware). The detection is essentially done atOS/hypervisor layer because of possibility of analyzing virtualized instances behavior atboth layers.In this thesis, we first provide a survey on the isolation challenge and on the cachebasedside-channel attacks in cloud computing infrastructures. We then present differentapproaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks.Regarding the detection of cache-based side-channel attacks, we achieve that by leveragingHardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT)with anomaly detection approaches to identify a malicious virtual machine or a Linux container.Our experimental results show a high detection rate.We then leverage an approach based on Moving Target Defense (MTD) theory to interrupta cache-based side-channel attack between two Linux containers. MTD allows us tomake the configuration of system more dynamic and consequently more harder to attackby an adversary, by using shuffling at different level of system and cloud. Our approachdoes not need to carrying modification neither into the guest OS or the hypervisor. Experimentalresults show that our approach imposes very low performance overhead.We also discuss the challenge of isolated execution on remote hosts, different scenariosto secure execution of Linux containers on remote hosts and different trusted executiontechnologies for cloud computing environments. Finally, we propose a secure model fordistributed computing through using Linux containers secured by Intel SGX, to performtrusted execution on untrusted Fog computing infrastructures
APA, Harvard, Vancouver, ISO, and other styles
48

Todeschi, Grégoire. "Optimisation des caches de fichiers dans les environnements virtualisés." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0048.

Full text
Abstract:
Les besoins en ressources de calcul sont en forte augmentation depuis plusieurs décennies, que ce soit pour des applications du domaine des réseaux sociaux, du calcul haute performance, ou du big data. Les entreprises se tournent alors vers des solutions d'externalisation de leurs services informatiques comme le Cloud Computing. Le Cloud Computing permet une mutalisation des ressources informatiques dans un datacenter et repose généralement sur la virtualisation. Cette dernière permet de décomposer une machine physique, appelée hôte, en plusieurs machines virtuelles (VM) invitées. La virtualisation engendre de nouveaux défis dans la conception des systèmes d'exploitation, en particulier pour la gestion de la mémoire. La mémoire est souvent utilisée pour accélérer les coûteux accès aux disques, en conservant ou préchargeant les données du disque dans le cache fichiers. Seulement la mémoire est une ressource limitée et limitante pour les environnements virtualisés, affectant ainsi les performances des applications utilisateurs. Il est alors nécessaire d'optimiser l'utilisation du cache de fichiers dans ces environnements. Dans cette thèse, nous proposons deux approches orthogonales pour améliorer les performances des applications à l'aide d'une meilleure utilisation du cache fichiers. Dans les environnements virtualisés, hôte et invités exécutent chacun leur propre système d'exploitation (OS) et ont donc chacun un cache de fichiers. Lors de la lecture d'un fichier, les données se retrouvent présentes dans les deux caches. Seulement, les deux OS exploitent la même mémoire physique. On parle de duplication des pages du cache. La première contribution vise à pallier ce problème avec Cacol, une politique d'éviction de cache s'exécutant dans l'hôte et non intrusive vis-à-vis de la VM. Cacol évite ces doublons de pages réduisant ainsi l'utilisation de la mémoire d'une machine physique. La seconde approche est d'étendre le cache fichiers des VM en exploitant de la mémoire disponible sur d'autres machines du datacenter. Cette seconde contribution, appelée Infinicache, s'appuie sur Infiniband, un réseau RDMA à haute vitesse, et exploite sa capacité à lire et à écrire sur de la mémoire à distance. Directement implémenté dans le cache invité, Infinicache stocke les pages évincées de son cache sur de la mémoire à distance. Les futurs accès à ces pages sont alors plus rapides que des accès aux disques de stockage, améliorant par conséquent les performances des applications. De plus, le taux d'utilisation de la mémoire à l'échelle du datacenter est augmenté, réduisant le gaspillage de manière globale<br>The need for computing resources has been growing significantly for several decades, in application domains from social networks, high-performance computing, or big data. Consequently, companies are outsourcing theirs IT services towards Cloud Computing solutions. Cloud Computing allows mutualizing computing resources in a data center, and generally relies on virtualization. Virtualization allows a physical machine, called a host, to be split into multiple guest virtual machines (VMs). Virtualization brings new challenges in the design of operating systems, especially memory management. Memory is often used to speed up expensive disk accesses by storing or preloading data from the disk to the file cache. However memory is a limited and limiting resource for virtualized environments, thus impacting the performance of user applications. It is therefore necessary to optimize the use of the file cache in these environments. In this thesis, we propose two orthogonal approaches to improve application performance through better use of the file cache. In virtualized environments, both host and guests run their own operating system (OS) and thus have their own file cache. When a file is read, the data is present in both caches. However, both OSes use the same physical memory. We hence have a phenomenon called pages duplication. The first contribution aims at alleviating this problem with Cacol, a host cache eviction policy, which is non-intrusive for the VM. Cacol avoids these duplicated pages, thus reducing the memory usage of a physical machine. The second approach is to extend the file cache of VMs by exploiting memory available on other machines in the datacenter. This second contribution, called Infinicache, relies on Infiniband, a high-speed RDMA network, and exploits its ability to read and write remote memory. Implemented directly in the guest cache, Infinicache stores on remote memory pages that have been evicted from its cache. Future accesses to these pages are then be faster than accesses to storage disks, thereby improving application performance. In addition, the datacenter-wide memory utilization rate is increased, reducing overall memory wasting
APA, Harvard, Vancouver, ISO, and other styles
49

Gallard, Pascal. "Conception d'un service de communication pour systèmes d'exploitation distribués pour grappes de calculateurs : mise en oeuvre dans le système à image unique Kerrighed." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00011152.

Full text
Abstract:
Dans la ligné des réseaux de stations de travail, les grappes de calculateurs représentent une alternative attrayante, en terme de performance et de coût, comparativement aux machines parallèles traditionnelles, pour l'exécution d'applications parallèles de calcul à haute performance. Une grappe de calculateurs est constituée d'un ensemble de noeuds interconnectés par un réseau dédié à haute performance. Les systèmes à image unique (Single System Image -- SSI) forment une classe de logiciel offrant aux utilisateurs et programmeurs d'une grappe de calculateurs, l'illusion d'une machine unique. Un SSI peut être conçu à différents niveaux (intergiciel, système d'exploitation) selon le degré d'exigence quant à la<br />réutilisation sans modification de modèles de programmation et d'applications existants. Dans notre contexte, les applications visées sont de type MPI ou OpenMP. Comme pour tout système distribué, le système d'interconnexion des noeuds de la grappe se trouve au coeur des performances globales de la grappe et des SSIs.<br /><br />Les travaux présentés dans cette thèse portent sur la conception d'un système de communication dédié aux systèmes d'exploitation distribués pour grappes. Ces travaux s'inscrivent dans le cadre de la conception et la réalisation d'un SSI pour l'exécution d'applications haute performance sur grappe de calculateurs.<br /><br />Notre première contribution se situe dans la conception d'un modèle de communication adapté aux communications internes aux services systèmes distribués qui constituent le SSI. En effet, de la performance des communications dépendent les performances globales de la grappe. Les transactions de communication permettent (i) de décrire un message lors de sa création, (ii) d'acheminer efficacement le message en<br />fontion des ressources disponibles, et (iii) de délivrer et traiter le<br />message au plus tôt sur le noeud destinataire.<br /><br />Notre seconde contribution correspond à la conception d'un support au déplacement de processus communiquant par flux de données (socket, pipe, etc.). En effet, au sein d'un SSI, les processus peuvent être déplacés en cours d'exécution par un ordonnanceur global. Les flux dynamiques permettent le déplacement d'une extrémité de communication sans dégradation des performances.<br /><br />Nos propositions ont été mises en oeuvre dans le prototype de SSI Kerrighed, conçu au sein du projet INRIA PARIS de l'IRISA. Ce prototype nous a permis d'évaluer le système de communication proposé. Nous avons montré une réactivité accrue des services systémes distribués ainsi qu'une absence de dégradation des performances des applications communiquant par messages (en particulier MPI) aprés déplacement d'un processus. L'ensemble de ce travail est distribué sous licence GPL en tant que partie de Kerrighed et est disponible à l'adresse: http://www.kerrighed.org.
APA, Harvard, Vancouver, ISO, and other styles
50

Zwolakowski, Jacub. "A formal approach to distributed application synthesis and deployment automation." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC116.

Full text
Abstract:
Des applications reparties complexes sont assemblées en connectant des composants logiciels distribués sur plusieurs machines. Concevoir et déployer tels systèmes est un problème difficile, qui nécessite un niveau important d'expertise: l'architecte système doit s'assurer que toutes les dépendances des composants sont satisfaits, éviter les composants incompatibles et ajuster la quantité de répliques du chaque composant pour tenir compte de la qualité de service et la tolérance aux pannes. Dans un environnement cloud il faut aussi minimiser les ressources virtuelles utilisées, afin de réduire le coût. Une fois l'architecture complète est conçue, il est nécessaire d'orchestrer correctement le processus de déploiement, en assurant que tous les composants sont installés, démarrés et connectés dans le bon ordre. Dans ce travail, nous décrivons le modèle formel Aeolus et l'outil Zephyrus, développés au cours du projet de recherche Aeolus, qui tente d'aborder les défis scientifiques liés à l'administration des systèmes distribués modernes et de les résoudre en pratique. Le modèle Aeolus nous permet d'exprimer une spécification de haut niveau du système souhaité, l'ensemble des composants disponibles avec leurs exigences et la quantité maximale de ressources virtuelles à engager. L'outil Zephyrus, basé sur ce modèle formel, est capable d'automatiser l'assemblage des applications distribuées complexes: il synthétise l'architecture complète du système en plaçant les composants de manière optimale sur les machines disponibles. Autres outils développés dans le projet Aeolus peuvent ensuite être utilisés pour déployer automatiquement le système complet dans un environnement cloud<br>Complex networked applications are assembled by connecting software components distributed across multiple machines Building and deploying such systems is a challenging problem which requires a significant amount of expertise: the system architect must ensure that ail component dependencies are satisfied, avoid conflicting components, and add the right amount of component replicas to account for quality of service and fault-tolerance. In a cloud environment, one also needs to minimize the virtual resources provisioned upfront, to reduce the cost of operation. Once the full architecture is designed, it is necessary to correctly orchestrate the deployment process, to ensure ail components are installed, started and connected in the right order. In this work, we describe the different variants of the Aeolus formai model and the Zephyrus tool developed during the Aeolus research project, which attempts to tackle the scientific challenges related to the administration of modern distributed systems and solve them in practice. The various parts of the Aeolus model allow us to express a high-level specification of the desired system, the set of available components together with their requirements, and the maximal amount of virtual resources to be committed. The associated Zephyrus tool, based on this formai model, is capable of automating the assembly of complex distributed applications: it synthesizes the full architecture of the system, placing components in an optimal mimer using the minimal number of available machines Other tools developed in the Aeolus project cari then be used to automatically deploy the complete system in a cloud environment
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography