To see the other types of publications on this topic, follow the link: OS/2 (Système d'exploitation des ordinateurs).

Dissertations / Theses on the topic 'OS/2 (Système d'exploitation des ordinateurs)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'OS/2 (Système d'exploitation des ordinateurs).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Karam, Louis. "Pseu : prototype d'un système d'exploitation universel." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX32027.

Full text
Abstract:
Les ordinateurs evoluent tres rapidement, a tel point que les concepts et les outils qui avaient ete definis pour ce qui etait, il y a peu de temps, des machines de dimension moyenne ou grande, sont maintenant appliquee aux micro-ordinateurs. C'est evident le cas des systemes d'exploitation qui peuvent paraitre comme un obstacle lorsqu'on veut utiliser l'ordinateur a un niveau autre que le langage machine. Le premier objectif de cette these est de fournir une methode logique simple, eprouvee d'un prototype de systeme d'exploitation universel. Le deuxieme objectif de cette these est de permettre aux gestionnaires qui ne possedent pas une connaissance approndie des systemes d'exploitation, de demeurer les maitres d'oeuvre de l'operation, autonomes face a des conseillers et aussi face aux vendeurs d'equipements. Le troisieme objectif est d'attirer l'attention des firmes d'informatiques aux problemes qui se posent au coeur de chaque migration, en proposant des elements de solutions qui peuvent constituer un noyau d'un developpement plus serieux
Computers are making progress so rapidly that concepts and tools primarily defined for medium or large machines are now being applied to microcomputers. It is obvious that it is the case for operating systems which can seem to be an obstacle when someone wishes to use components of a computer other than the machine language. The first objective of this thesis is to povide a proven simple and logical method of a universal operating system prototype. The second objective of this thesis is to allow administrators without an elaborate knowledge of operating systems to remain in control and independent when confronted by counsellors or computer salesmen. The third objective is to attract computer firm' attention on problems during the course of each migration by proposing solutions which can be the centre of a more complex development
APA, Harvard, Vancouver, ISO, and other styles
2

Boukhobza, Jalil. "Etude et analyse des performances et simulation des accès aux fichiers sur PC." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0019.

Full text
Abstract:
L'évolution des sous systèmes de stockage et plus particulièrement des disques a été considérable ces dernières années. Cependant, l'écart de performance entre ces dernièrs et les processeurs ne cesse de se creuser. Il est donc essentiel de bien choisir les ressources de stockage secondaire et de les utiliser d'une manière optimale. Pour y parvenir, une compréhension complète du fonctionnement logiciel et matériel des systèmes de stockage ainsi que des interactions entre les différents modules de ce système est indispensable. Nous nous sommes intéressés dans cette thèse à la mesure et à l'analyse des performances, ainsi qu'à la simulation de l'architecture de stockage sur PC. Nous étudions en particulier les systèmes d'E/S sous Windows ou plus exactement les mécanismes d'accès aux fichiers. L'utilisation de certains paramètres dans la fonction d'ouverture et de création de fichiers CreateFile sous Windows détermine la manière avec laquelle se fera l'accès aux fichiers. Le choix d'une stratégie de lecture par anticipation, d'algorithmes d'écriture retardée, de la taille des blocs systèmes ainsi que d'autres paramètres se fait par le système d'après le paramétrage de cette même fonction. Il est donc important de connaître et de comprendre l'influence de ces choix sur les performances des E/S qui sont bien sûr relatives à la charge de travail imposée au système. Le travail effectué dans le cadre de cette thèse consiste à d'abord trouver un moyen efficace de mesure de performance spécifique à Windows, c'est-à-dire que l'on prend en compte les paramètres spécifiques à la fonction CreateFile ainsi que les tailles de requêtes. En effet, nous avons remarqué des fluctuations de performance très importantes selon la stratégie d'accès aux fichiers choisie. Nous avons par la suite développé une méthodologie d'analyse des systèmes de stockage sous Windows grâce à laquelle nous avons identifié les différents paramètres de stockage aidant à la compréhension des performances obtenues. C'est l'analyse des temps de réponse qui a permis cette compréhension. En effet, nous avons remarqué une périodicité des temps de réponse dans le cas des accès à des blocs stockés séquentiellement sur le disque, c'est ce qui nous a permis de commencer l'analyse. Une fois cette analyse effectuée, un simulateur comportemental du système de stockage de Windows a été développé. Il permet entre autres d'évaluer les performances d'une charge de travail sur une architecture donnée pour qu'un utilisateur puisse décider de la stratégie d'accès aux fichiers la plus efficace à adopter avant l'implémentation de son application
The evolution of storage subsystems and more particularly disks was considerable this last decade. However, the performance gap between secondary storage and processor is still increasing. It is therefore crucial to well choose the storage subsystem and to know how to use it in an optimal way. In order to resolve this problem, a complete understanding of the software and hardware behaviours of storage systems as well as the interactions between the different modules of the I/O system is required. We are interested in this thesis in the benchmarking, the performance analysis and the simulation of the storage architecture on PCs. We are particularly studying the I/O system under Windows and the file access mechanisms. The use of some parameters in the file opening and creation function CreateFile under Windows decides on the way files are accessed. The choice of a read ahead algorithm, a lazy write strategy, the system data block size and other parameters is done by the system and depends on those function parameters. It is thus very important to understand the impact of those choices on the I/O performance of the system that are of course relative to the injected workload. The realized work consists of finding at first an efficient way to measure the specific Windows storage system performance depending on the parameters like those specified in the CreateFile function and request sizes. We have noticed very important performance fluctuations relative to the file access strategy used. We have then developed a methodology to analyse Windows storage systems. We have identified thanks to this methodology different parameters that helped us to understand the performance fluctuations we obtained. It is the response time analysis step that allowed this understanding. We observed that response times are periodic when the accessed blocks were stored sequentially on the disk, that was the starting point of our analysis. Once the performance study and analysis done, a behavioral simulator of the Windows storage system has been developed. It allows for instance the performance evaluation of a given workload on defined storage architecture for a user to decide of the most effective access strategy to adopt before implementing his application
APA, Harvard, Vancouver, ISO, and other styles
3

Mzouri, Azzeddine. "Les protocoles de communication dans un système d'exploitation réparti." Paris 11, 1988. http://www.theses.fr/1988PA112072.

Full text
Abstract:
Étude et réalisation de protocoles de communication dans un système d'exploitation reparti. L'importance des protocoles spécialises pour assurer la transparence de la communication inter processus est montrée. Il est aussi montre l'intérêt des protocoles généraux lorsque les objectifs du système doivent conjuguer aussi bien la transparence que l'ouverture et la portabilité. Les résultats sont illustrés au travers du cas du système d'exploitation réparti chorus, développe à l'inria.
APA, Harvard, Vancouver, ISO, and other styles
4

Chebili, Mourad. "Une interface intelligente d'assistance à l'utilisation d'un système d'exploitation." Paris 8, 2000. http://www.theses.fr/2000PA081858.

Full text
Abstract:
L' @expansion des Interfaces Utilisateurs Graphiques (IUG) a été rapidement accélérée par la standardisation des systèmes de fenêtrage. Grâce à cette révolution incontournable des IHM, il semble utile et fondamental d'orienter et d'appliquer cette technologie au coeur de la machine : le Système d'Exploitation ou SE. Lors de ce travail, nous justifions la particularité des Interfaces Utlisateurs des SE et nous tentons de démasquer les problèmes actuels de celles-ci. D'autre part, nous tentons de démontrer l'interêt de faire participer activement l'IUSE dans l'Interaction Homme-Machine par le biais d'une intelligence exploitant la technologie des agents activés pour s'adapter aux besoins des utilisateurs. Dans ce cadre, nous proposons d'étudier et de formaliser une architecture intelligente favorisant la décomposition de la tâche. Cela permet la réduction de la complexité et la spécialisation des agents. . . .
APA, Harvard, Vancouver, ISO, and other styles
5

Grimaud, Gilles. "Camille : un système d'exploitation ouvert pour carte à microprocesseur." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-452.pdf.

Full text
Abstract:
Antoine de Saint-Exupéry écrivait en d'autres termes que le progres technologique consiste a faire disparaitre l'outil pour que l'utilisateur jouisse pleinement du service. La carte a puce s'est rapidement integree dans notre vie courante, elle nous represente sur de grands reseaux (e. G. Banquaire, telephonique, sante) sans que nous y pretions vraiment attention. Cependant la carte a microprocesseur reste un produit de l'ingenierie electronique peu connu des informaticiens. Pourtant elle s'est averee la meilleure solution pour gerer la mobilite de l'utilisateur dans bien des cas. Aussi une nouvelle generation de cartes, equipees de veritables systemes d'exploitation, propose de charger dynamiquement donnees et codes issus de langages de programmation connus (java, visual basic, c). Cependant, les informaticiens n'ont fait aucune nouvelle utilisation de ces cartes ouvertes. Nous presentons dans ce document une etude des contraintes et besoins associes a ces nouvelles cartes. A partir de cette etude, nous avons defini une architecture logicielle distribuee entre la carte et son terminal. Nous avons prouve la validite de notre demarche en terme de securite, et une premiere maquette de cette architecture a ete realisee. Differentes experiences ont permis d'evaluer experimentalement les bien-fondes de notre demarche pour les elements logiciels que nous avons finalement places au cur de la carte.
APA, Harvard, Vancouver, ISO, and other styles
6

Lebee, Pierre. "Mise en œuvre d'une architecture spécialisée pour l'exécution d'un système d'exploitation réparti : Chorus." Compiègne, 1986. http://www.theses.fr/1986COMPI249.

Full text
Abstract:
Une nouvelle génération de systèmes d'exploitation est née durant ces dix dernières années : les systèmes d'exploitation répartis. Trois concepts fondamentaux ont été étudiés : la standardisation, la répartition et le parallélisme. CHORUS fait parti de ces systèmes. Ce projet a été développé à l'INRIA, une architecture pour des systèmes répartis a été réalisée. CHORUS offre une compatibilité UNIX, et est indépendant de l'architecture matérielle des machines et des réseaux sur lesquels il est implanté. Cette thèse présente une architecture d'ordinateur complète à base de Transputers et de Clippers adaptée à CHORUS. Ce projet est développé à l'UTC dans la division IlS. La caractéristique principale de cette machine réside dans le fait que le système d'exploitation est exécuté sur un processeur qui lui est dédié : le Transputer. Les tâches des utilisateurs sont exécutées sur le Qipper. Ces deux processeurs sont appelés : processeur Hétérogène Parallèle et Réparti (HPR). La Machine HPR (MHPR) est modulaire et se compose de cinq processeurs HPR. Les Transputers sont connectés entre eux de façon optimale par leurs lignes séries, évitant ainsi les problèmes d'encombrements dus à un bus commun. Les Clippers disposent d'une mémoire locale partagée accessible par leur bus privé, ou par le bus commun. Un troisième bus est utilisé pour le DMAC réalisant les opérations d'E/S (disque, ETHERNET, X2S) et pouvant accéder à toutes les mémoires locales partagées de la machine et à toutes les mémoires privées des Qippers. Ce bus permet d'effectuer les opérations d'BIS sans détériorer la bande passante du bus commun. Les MHPR peuvent être connectées ensemble par des réseaux ETHERNET ou X25
A new generation of operating systems is born during the last ten years : distributed operating system oriented network. Three key-concepts are strongly developed : standardization, distribution and parallelism. One of these systems is CHORUS (TM). This project launched at INRIA, has elaborated an architecture far distributed systems. CHORUS offers a UNIX compatibility, is independent of the hardware architecture and of networks. This paper describes a complete computer architecture fitted to CHORUS, based on transputers and Clippers. The project is developed at UTC in the IlS department. The major feature of the machine lays on the fact that the operating system is executed by a dedicated processor : the Transputer. User's tasks are executed on a Clipper. These two processors are called a Heterogeneous Parallel Distributed processor (HPD). The HPD Machine (HPDM) is modular and may be composed of rive HPD processors. Transputers are fully connected by their serial links, avoiding bus bottlenecks. Clippers have a local shared memory accessible by their private bus, or by a global bus. A third bus is used by the DMAC supporting l/0 operations (disk, ETHERNET, X2S) and accessing the local shared memories and Clipper's private memories. This bus permits l/O operations without decreasing global bus bandwidth. HPDMs may be connected together by ETHERNET or X25 network
APA, Harvard, Vancouver, ISO, and other styles
7

Hanibeche, Rafik. "La sûreté de fonctionnement dans les systèmes d'exploitation répartis : application dans le système chorus/mix : mécanismes pour la haute disponibilité des données non volatiles." Paris 7, 1993. http://www.theses.fr/1993PA077057.

Full text
Abstract:
Ce memoire de these aborde l'aspect surete de fonctionnement dans les systemes d'exploitation repartis. Cet aspect est examine dans ses dimensions theorique et pratique. Du point de vue theorique, le memoire comprend une description de paradigmes utilises afin d'assurer, dans les systemes d'exploitation repartis, la surete de fonctionnement des traitements, de l'acces aux donnees non volatiles, de la communication et de l'acces aux ressources protegees. Cette description est precedee d'un expose sur les principales notions relatives a la surete de fonctionnement dans les systemes informatiques et a la structuration des systemes d'exploitation repartis. Du point de vue pratique, le memoire comprend les specifications fonctionnelle et de realisation d'une extension du systeme de gestion de fichiers reparti (sgfr) de chorus/mix. Chorus/mix est un systeme d'exploitation reparti construit de facon modulaire au-dessus d'un micro-noyau. Il offre aux processus utilisateur, une interface d'appels systeme compatible avec celle d'unix et etendue a la repartition. Le but de l'extension du sgfr de chorus/mix est d'assurer une haute disponibilite des donnees non volatiles (fichiers), lors de l'occurrence de fautes franches affectant des sites du systeme informatique gere par chorus/mix. La haute disponibilite des donnees non volatiles est assuree grace a un service de replication de systemes de fichiers. Ce service a ete developpe avec un souci d'integration harmonieuse dans le systeme existant, i. E. Sans modifier l'organisation existante du systeme. La replication, introduite par le biais de l'extension du mecanisme de mount, est entierement prise en charge par le service de replication. Ce service permet de selectionner des systemes de fichiers pour les repliquer. Le service de replication assure une totale coherence entre les exemplaires d'un systeme de fichiers replique. La disponibilite, pour la lecture, l'execution d'un fichier replique est garantie par le service de replication tant qu'il existe un site non defaillant renfermant un exemplaire du fichier
APA, Harvard, Vancouver, ISO, and other styles
8

Deville, Damien. "CamilleRT : un système d'exploitation temps réel extensible pour carte à microprocesseur." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Full text
Abstract:
Le logiciel carte est de plus en plus conçu pour supporter des contraintes temps réel. Par exemple, dans les cartes Java SIM, l'application principale èst chargée de générer une clef cryptographique de session pour chaque unité de communication consommée faute de quoi l'infrastructure GSM rompt la communication. Actuellement, les systèmes d'exploitation pour carte à puce ne gèrent l'aspect temps réel qu'au cas par cas. Ils ne permettent pas aux applications <> de signifier des besoins en termes d'accès au microprocesseur, ceci pour des raisons de sécurité. Nous proposons une architecture logicielle embarquée autorisant le partage de la ressource microprocesseur entre les extensions de l'exo-noyau Camille. Cette architecture permet aux extensions de supporter des tâches temps réel au dessus de l'exo-noyau garantissant la disponibilité du microprocesseur. Nous avons montré les faiblesses des solutions initialement préconisées pour supporter du temps réel dans les exo-noyaux et nous proposons un moyen de faire collaborer les extensions sous la forme d'un partage d'une de leurs politiques d'ordonnancement et d'une mutualisation de leurs accès au microprocesseur. Nous avons mis en avant les propriétés fonctionnelles que nous attendons de ces ordonnanceurs collaboratifs et nous avons proposé une architecture distribuée permettant de charger ét de valider ces propriétés. Cette architecture de partage du microprocesseur a été validée expérimentalement dans CamilleRT.
APA, Harvard, Vancouver, ISO, and other styles
9

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Full text
Abstract:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur
This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
APA, Harvard, Vancouver, ISO, and other styles
11

Duquennoy, Simon. "Smews : un système d'exploitation dédié au support d'applications Web en environnement contraint." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10184/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte de l'extension des technologies du Web à l'informatique enfouie. Le Web des objets qui en résulte ouvre les portes à de nouvelles interactions en garantissant une interopérabilité aussi bien au niveau réseau qu'applicatif. Nous adressons la conception du système logiciel jouant le rôle de serveur Web au sein d'équipements fortement contraints, tels que des cartes à puce ou des capteurs. Les solutions de l'état de l'art permettant de supporter une pile protocolaire standard à faible empreinte mémoire exigent de sacrifier les performances et les fonctionnalités du système. La thèse défendue est qu'en dédiant un système d'exploitation au support d'une famille d'applications de haut niveau, nous sommes en mesure de produire un logiciel performant et consommant très peu de ressources. Nous étudions une architecture basée sur un macro-noyau intégrant gestion du matériel, pile de communication et conteneur d'applications, présentant une interface adaptée aux besoins de ces dernières
The context of this thesis is the extension of Web technologies to ambient computing. The resulting Web of Things allows novel interactions by guaranteeing interoperability at both network and applications levels. We address the design of the software system behaving as a Web server and embedded in strongly constrained devices such as smart cards or sensors. The state of the art solutions allowing to run a lightweight standard protocol stack involve poor performances and sacrifice the system features. The thesis is that by dedicating an operating system to the support of a high-level family of applications, we can produce an efficient software consuming a few resources. We study an architecture based on an macro-kernel integrating the hardware management, the communications stack and the applications container, providing an interface that fits the applications needs
APA, Harvard, Vancouver, ISO, and other styles
12

Boule, Ivan. "Fenix : un système multifenêtres intégré à Unix." Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00324433.

Full text
Abstract:
Développement d'un système multi-fenetres permettant l'exécution parallèle de plusieurs applications interactives disposant chacune d'un nombre quelconque de fenêtres sur l'écran de façon totalement transparente aux applications. L'architecture du système repose sur une séparation stricte entre, d'une part le partie opératoire regroupant les fonctions de base et, d'autre part, la partie contrôle qui gère les commandes mises à la disposition de l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
13

Durocher, Éric. "Plum : des processus légers pour Unix multiprocesseur." Paris 11, 1989. http://www.theses.fr/1989PA112070.

Full text
Abstract:
Adaptation du système Unix a une architecture multiprocesseurs étroitement couplée à mémoire partagée. Le système PLUM permet d'exécuter plusieurs processus en prallèle en assurant une répartition dynamique sur les processeurs disponibles. De plus, l'utilisateur peut accèder explicitement au parallélisme grace à la notion de processus légers. De nouveaux apples systèmes permettent aux processus légers de communiquer et de se synchroniser selon un schéma de rendez-vous.
APA, Harvard, Vancouver, ISO, and other styles
14

Mompelat, Rodrigue. "La problématique sémantique et cognitive de la métaphore : littéralité, traduction, catégorisations, étude cognitive polymorphe (linguistico-computationnelle, logique mathématique, philosophique, cybernétique et biologique) de métaphores de la terminologie informatique UNIX." Paris, EHESS, 2001. http://www.theses.fr/2001EHES0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Guez, Stéphane. "Interix : conception et réalisation d'un système d'aide intelligent sur Unix." Châtenay-Malabry, Ecole centrale de Paris, 1987. http://www.theses.fr/1987ECAP0027.

Full text
Abstract:
Interix est un système d’aide intelligent pour le système d’exploitation Unix. Interix permet aux utilisateurs débutants de poser des questions en français sur le fonctionnement et l’utilisation d’Unix (exemple : Comment effacer un fichier ?). Les réponses sont également rédigées en français. La difficulté des problèmes que posent la compréhension des requêtes d’un utilisateur débutant et la construction d’une représentation sémantique formalisée de leur signification nous a conduit à envisager l’ensemble du problème du point de vue de l’élaboration des réponses, considérée comme un véritable en soi nécessitant une réflexion particulière, des traitements et des connaissances spécifiques. En suivant un certain nombre de principes généraux, les réponses ont été conçues comme des exposés sur Unix construits et cohérents, adaptés à la situation personnelle de l’utilisateur, comme des explications, à la fois pertinentes et didactiques, compréhensibles et complètes, destinées à enrichir les connaissances de l’utilisateur et à le former à la maitrise d’Unix. Nous nous sommes particulièrement intéressés à l’analyse et à la représentation des connaissances, réparties en deux ensembles : une description opératoire des concepts du domaine, destinée à établir le lien entre les intentions de l’utilisateur et les solutions disponibles ; une représentation très riche des commandes, de leur fonctionnement et de toutes les informations pouvant intéresser l’utilisateur, destinée à servir de base au processus d’élaboration du contenu des réponses. Ce processus consiste à sélectionner les informations pertinentes, à les évaluer en fonction des données contextuelles disponibles et à les organiser.
APA, Harvard, Vancouver, ISO, and other styles
16

Leclercq, Claude. "Un problème de système expert temps réel : la gestion de centres informatiques." Lille 1, 1990. http://www.theses.fr/1990LIL10143.

Full text
Abstract:
Le pilotage des centres informatiques est une tache délicate qui ne peut être confiée qu'à un ingénieur système. Sa compétence est basée sur trois qualités : une bonne connaissance technique, une longue expérience et une capacité à trouver rapidement des solutions efficaces aux problèmes qui lui sont posés. Il est ce qu'on appelle un expert. Au vu de ces caractéristiques, nous avons décidé de développer sur micro-ordinateur un système expert d'assistance au pilotage des centres informatiques, dont le but est de surveiller le fonctionnement d'un grand ordinateur. La caractéristique originale de ce système expert est de fonctionner en temps réel. Ceci pose des problèmes de variables à affectations multiples qui peuvent être à l'origine d'inconsistances dans la base de faits. De plus, la quantité d'informations gérées aurait été incompatible avec la contrainte du temps réel si nous n'avions pas eu recours à une méthode particulière de gestion des inconsistances et d'optimisation de l'inférence. Cette méthode, telle qu'elle a été implémentée dans le logiciel, fait l'objet d'une étude théorique détaillée dans le mémoire. Le fruit de ce travail est un progiciel commercialisé : « SEAT », dont l'utilisation a déjà fourni de bons résultats.
APA, Harvard, Vancouver, ISO, and other styles
17

Polo, Mario. "Méthodes et outils d'aide à la configuration et à l'optimisation d'applications transactionnelles." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0058.

Full text
Abstract:
L'objet de notre étude est de concevoir et de mettre en oeuvre une méthodologie d'évaluation de pcrfonnance d'applications transactionnelles pour maîtriser le temps de réponse perçu par les utilisateurs. Nous avons adopté une démarche en trois étapes : 1 - campagne de mesure pour analyser le comportement dynamique de systèmes pilotes (plus particulièrement UNIX et ORACLE) en fonction des paramètres influents sur le temps de réponse, 2 - analyses de données (par analyses en composantes principales et approximations polynomiales) et interprétation des résultats de mesures pour modéliser le temps de réponse en fonction des facteurs influents, 3 - évaluation prévisionnelle de la charge d'un système cible pour proposer une configuration (matérielle et logicielle) optimale. Notre outil implémente cette méthodologie et propose le résultat d'une évaluation sous la forme d'un rapport de performance
Our aim was to design and develop a methodology for performance optimisation of transactional applications to control the user response time. We used a three steps approach : 1 - data collection to analyse the dynamical behaviour of pilot systems (specially UNIX and ORACLE) according to response time influent factors, 2 - modelisation of the response time according to the influent factors with data analyses (principal component Analysis and polynomial approximation) and interpretation of measures results. 3 - workload evaluation of the target system for proposing the optimal (hardware and software) configuration. Our tool used this methodology and provide a performance report of the evaluation result
APA, Harvard, Vancouver, ISO, and other styles
18

Jarbaoui, Mohamed Tahar. "Sûreté de fonctionnement de systèmes informatiques : étalonnage et représentativité des fautes." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT008H.

Full text
Abstract:
Les travaux présentés dans ce mémoire possèdent un double objectif. Nous nous intéressons, dans un premier temps, à la définition d'un cadre conceptuel d'étalonnage de la sûreté de fonctionnement des systèmes informatiques, basé sur les techniques d'évaluation analytique et expérimentale de la sûreté de fonctionnement. Le but d'un étalon de sûreté de fonctionnement est de fournir un moyen générique pour la caractérisation du comportement des systèmes informatiques en présence de fautes, permettant ainsi la quantification de mesures de sûreté de fonctionnement. Le second objectif de ce mémoire est d'illustrer l'application de ce cadre conceptuel sur deux cas particuliers. Le premier cas d'application est relatif à la modélisation analytique de systèmes complexes tolérants aux fautes. Nous montrons par cet exemple le moyen d'identifier les paramètres significatifs d'un modèle analytique nécessitant d'être déterminés expérimentalement. Le deuxième exemple est relatif à l'étalonnage de la sûreté de fonctionnement d'un système opératoire. Ces étalons sont purement expérimentaux et se basent énormément sur l'injection de fautes. Nous mettons l'accent dans cette partie de la thèse sur l'étude d'une part de l'équivalence entre les fautes injectées et d'autre part de la représentativité des fautes injectées par rapport aux fautes réelles dans les systèmes opératoires.
APA, Harvard, Vancouver, ISO, and other styles
19

Vallée, Geoffroy. "Conception d'un ordonnanceur de processus adaptable pour la gestion globale des ressources dans les grappes de calculateurs : mise en oeuvre dans le système d'exploitation Kerrighed." Rennes 1, 2004. http://www.theses.fr/2004REN10011.

Full text
Abstract:
Les travaux de cette thèse, qui s'inscrivent dans la conception du système d'exploitation à image unique pour grappe Kerrighed, portent sur l'étude et la conception d'un ordonnanceur global modulaire et adaptable permettant le développement simple de politiques d'ordonnancement pour grappe. Cet ordonnanceur global repose sur des mécanismes de gestion globale des processus (création distante, duplication, migration, création/restauration de points de reprise). Ces mécanismes se fondent sur un concept unique appelé processus fantôme de virtualisation de processus et tirent profit de la mémoire virtuellement partagée de Kerrighed pour la gestion des threads. Grâce à ces mécanismes, Kerrighed offre une interface de programmation POSIX thread, permettant, par exemple, l'exécution d'applications OpenMP sur grappe. Les travaux effectués ont été intégrés au prototype Kerrighed, logiciel libre diffusé, et validés par l'exécution d'applications industrielles fournies par EDF R&D.
APA, Harvard, Vancouver, ISO, and other styles
20

Royon, Yvan. "Environnements d'exécution pour passerelles domestiques." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00271481.

Full text
Abstract:
Le marché des passerelles domestiques évolue vers un nouveau modèle économique, où de multiples acteurs sont amenés à fournir des services vers nos domiciles : multimédia à la demande, domotique, télésécurité, aide aux personnes âgées ou handicapées\ldots

Ce nouveau modèle économique a des répercussions techniques sur les passerelles domestiques. Ces équipements à ressources limitées doivent alors supporter le déploiement, l'exécution et la gestion de plusieurs éléments logiciels (modules), en provenance de fournisseurs différents. Ceci se traduit par des besoins en terme d'isolation d'exécution locale, de gestion à distance, d'infrastructure de déploiement et de modèle de programmation.

Dans ces travaux, nous proposons de répondre à ces quatre familles de besoins en nous appuyant sur deux types d'environnements d'exécution : Java/OSGi et C/Linux.

Nous proposons de combler les fonctionnalités manquantes à ces deux environnements, afin d'obtenir un système conforme au modèle multi-services.
APA, Harvard, Vancouver, ISO, and other styles
21

Vermot-Gauchy, Robert. "Utilisation du macro-traitement dans différents domaines de l'informatique : application à un système type S/370." Nice, 1987. http://www.theses.fr/1987NICE4152.

Full text
Abstract:
Présentation des objectifs et des principes de la macroprogrammation. Une méthode pour la construction automatique de fichiers ou de programmes est proposée. Les nombreuses possibilités offertes par le macrogénérateur de l'assembleur du S/370 sont présentées
APA, Harvard, Vancouver, ISO, and other styles
22

Deligné, Eddy. "Hyperviseur de protection d'exécutables : étude, développement et discussion." Palaiseau, Ecole polytechnique, 2014. http://www.theses.fr/2014EPXX0072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Hiet, Guillaume. "Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'information au sein du système d'exploitation et des applications : mise en oeuvre sous Linux pour les programmes Java." Rennes 1, 2008. http://www.theses.fr/2008REN1S171.

Full text
Abstract:
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. L’approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous souhaitons surveiller un système comprenant un OS et des logiciels COTS dont des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture ainsi que les résultats de nos expérimentations
Computer security is now a crucial issue. We are convinced that policy-based intrusion detection is a promising approach. This kind of detection is only based on both a model of the system state evolution and a model of the security policy. We aim at using policy-based intrusion detection systems (IDS) to monitor a system with OS running COTS software and web applications. We propose a detection model that can monitor information flow between information containers. We define a generic IDS architecture implementing the proposed model. This architecture is based on the collaboration between several IDS monitoring information flows at different granularity levels. We present an implementation of this architecture and the results of the experiments we realized on realistic Java applications
APA, Harvard, Vancouver, ISO, and other styles
24

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.
The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
25

Seigneur, Frédéric. "Adaptation des méthodes de caractérisation électrique au cas des structures M. O. S. à oxyde très mince : application à l’étude des dégradations sur les capacités à oxyde de grille nitrure." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0108.

Full text
Abstract:
Nous abordons ce travail par une présentation des problèmes technologiques actuels relatifs aux dissymétries de fonctionnement de certains circuits C. M. O. S. . Les solutions correspondantes nous ont conduit à introduire des notions de base sur les oxydes minces et sur la nitruration. Après avoir fait un rappel sur les défauts à l'interface Si / Si02, nous présentons sur le plan théorique les principales techniques de dégradation (injection de porteurs, irradiation) ainsi que les défauts consécutifs créés dans l'oxyde et à l'interface Si 1 Si02. La seconde partie est consacrée au développement expérimental d'un ensemble de techniques de caractérisation sur des structures M. O. S. à oxyde mince. Nous décrivons le banc de mesure et mentionnons les difficultés pratiques rencontrées et surmontées. Nous présentons ensuite les principales techniques capacitives qui permettent de déterminer les paramètres de base des structures M. O. S. (C0x, N, Vfb, etc. . . ). Nous discutons de la fiabilité des résultats (sensibilité, précision) et nous proposons des améliorations permettant de contourner quelques difficultés de caractérisation inhérentes aux oxydes minces. Concernant les états rapides, nous avons développé des techniques de dégradation (F. N. , irradiation) et de caractérisation de la qualité de l'interface Si / Si02 (TERMAN, hf-hf et D. L. T. S. ). Nous étudions ensuite dans les structures M. O. S. Les différentes causes de l'instabilité consécutive à la présence d'états lents. Pour cela, nous avons mis en place la méthode tunnel D. L. T. S. , cependant, nous avons montré que l'utilisation d'appareils de polarisation (générateur de pulses) dans des conditions particulières peut conduire à des erreurs systématiques de mesures. Sur ce constat de non fiabilité, nous avons développé deux autres techniques toujours orientées sur l'exploitation des caractéristiques capacitives. Ces méthodes de mesure nous permettent de mettre en évidence expérimentalement les "états lents" et d'étudier quelques unes de leurs caractéristiques spectrales. Finalement, nous avons appliqué l'ensemble des techniques précédemment développées à un lot particulier d'échantillons nitrurés. Après avoir présenté leurs caractéristiques électriques générales, nous étudions et comparons la résistance de ces structures face à deux mécanismes de dégradation : injection de porteurs froids (F. N. ) et irradiation au Co60
[We approach this work by a presentation of current technological problems relative to functioning dissymmetries of some C. M. O. S. Devices. The solutions we propose have lead us to introduce basic information on thin oxides and nitrification. We first introduce defects at the Si / SiO2 interface, then we theoretically present the main degradation techniques (carrier injection, irradiation) and their induced defects created in the oxide bulk and at the interface. The second parts dedicated to the experimental development of a set of characterization techniques on M. O. S. Structures with thin oxide. We describe the measurement bench and the difficulties we overcame during its development. Then, we present the main capacitance measurements techniques that allow to determine the basic parameters of a M. O. S. Structure (C0x, N, V fb etc. . . ). We discuss the reliability of results (sensitivity, accuracy) and we propose improvements allowing to bypass some characterization difficulties linked to thin oxides. Concerning fast states, we have developed degradation techniques (F. N, irradiation) and characterization of the Si 1 Si02 interface quality (TERMAN, hf-bf and D. L. T. S. ). We then study in M. O. S. Structure, the reasons of the instability due to the slow states, by implementing the tunnel D. L. T. S. Method However. We have shown that the use of voltage sources (pulse generators) in specific conditions may cause systematic measurements errors. Taking this into account, we have developed two other techniques also based on the exploitation of capacitance measurements. These methods allow us to experimentally highlight the "slow states" and to study some of their spectral characteristics. Finally, we have applied the whole techniques previously de\'eloped to specific nitrated samples. After presenting their general electrical characteristics, we study and compare the resistance of these structures to two degradation mechanisms : cold carrier injection (F. N. ) and Co60 irradiation. ]
APA, Harvard, Vancouver, ISO, and other styles
26

Courbot, Alexandre. "Spécialisation tardive de systèmes Java embarqués pour petits objets portables et sécurisés." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00113765.

Full text
Abstract:
Java est une technologie attractive pour les équipements embarqués et contraints, de par ses propriétés de sûreté, de portabilité et de faible empreinte mémoire du code. Cependant, la taille imposante d'un environnement Java complet a obligé les producteurs d'équipements embarqués à utiliser des spécifications dégradées de Java aux fonctionnalités limitées, telles que J2ME ou Java Card. Ces spécialisations précoces de Java perdent la compatibilité au niveau applicatif avec l'édition standard, et ne peuvent ainsi s'adresser qu'à des cas d'utilisation particuliers.Notre travail consiste à permettre l'utilisation de l'édition standard de Java sur les systèmes contraints, au travers d'une spécialisation tardive et agressive du système qui intervient après déploiement de ses applications. L'occurrence tardive de la spécialisation permet de mieux déterminer les conditions d'utilisation du système, et donc de le spécialiser « sur mesure » par rapport aux applications qu'il exécute.Nos contributions sont les suivantes : dans un premier temps, nous définissons la notion de « romization », consistant à déployer un système hors-ligne avant de capturer et de transférer son image mémoire vers l'équipement sur lequel il doit s'exécuter. De cette définition, nous proposons une architecture de romization capable de capturer une image mémoire du système à n'importe quel moment de son exécution. Dans un second temps, nous traitons des moyens d'analyse et de spécialisation permettant de rendre cette image mémoire embarquable. L'évaluation effectuée montre que cette spécialisation tardive, appliquée à un environnement Java standard déployé, permet effectivement d'en obtenir une version minimaliste et embarquable sur un équipement contraint.
APA, Harvard, Vancouver, ISO, and other styles
27

Durand, Rémi. "De la contre-culture à l'« évangélisme technologique » : les développeurs et la révolution du smartphone." Paris, EHESS, 2016. http://www.theses.fr/2016EHES0066.

Full text
Abstract:
Nous vivons, depuis plus d'un demi-siècle, ce que certains appellent une « troisième révolution industrielle », celle des ordinateurs personnels et des smartphones. Si ces systèmes techniques marquent par leur puissance et par les nouvelles possibilités qu'ils ouvrent, ils n'en restent pas moins des plateformes qui, en elles-mêmes, n'ont pas d'utilité. Ce qui leur donne leur valeur d'usage sont essentiellement les applications qu'elles proposent à leurs utilisateurs, et elles ne sont pas forcément développées par les entreprises qui produisent ces plateformes. Cette thèse propose de s'intéresser aux développeurs d'applications tierces, et plus spécifiquement aux « communautés de développeurs » qui entourent les deux principales plateformes de l'industrie du smartphone : Android développée par Google, et celle de l'iPhone d'Apple. Quel intérêt présente l'analyse de cet univers socio-industriel ? Nous pourrions dire que ces écosystèmes de développeurs, notamment celui d'Android, présentent un paradoxe. D'un côté il s'agit d'une plateforme open source, très liée à ce que certains ont appelé l'« éthique hacker ». De l'autre, cet univers constitue une organisation relativement cohérente, structurée, centralisée autour de l'acteur dominant qu'est Google, et traversée par de nouvelles formes d'asymétries et de nouveaux rapports de pouvoir, parfois plus importants que ceux qui rebutent les hackers. Ce travail propose d'explorer cet univers constitué de multinationales et des écosystèmes de développeurs qui les entourent, de regarder leur histoire, les logiques qui les sous-tendent, les dispositifs qui les structurent
We live, for more than half a century, what some call a "third industrial revolution", that of personal computers, of smartphones and more recently of internet of things. If these technical systems impress by their power and by the new possibilities that they open, they remain platforms which, in themselves, have no utility. What gives them their use value are essentially applications that they offer to their users, and these are not necessarily developed by companies that produce these platforms. This thesis proposes to focus on the third party applications developers, and more specifically to "developer communities" which surround the two main platforms of the smartphone industry: Android developed by Google, and the iPhone of Apple. What interest presents the analysis of this socio-industrial environment? We could say that these ecosystems of developers, especially that of Android, presents a paradox. On one side it is an open source platform, very related to what some called the "hacker ethic", this "do-it-yourself" spirit who reject traditional forms of authority. On the other side, this environment constitutes a relatively coherent organization, structured, centralized around the dominant player that is Google, and crossed by new forms of asymmetries and new power relations, sometimes more important than those rejected by hackers. This work proposes to explore this environment made of multinationals and ecosystems of developers which surround them, to look at their history, the logics that underlie them, the apparatus which structure them
APA, Harvard, Vancouver, ISO, and other styles
28

Garcia-Fernandez, Thibault. "Conception et développement de composants pour logiciel temps réel embarqués." Nantes, 2005. http://www.theses.fr/2005NANT2066.

Full text
Abstract:
Le travail présenté dans cette thèse concerne la conception et la validation d'un système d'exploitation temps-réel baptisé CLEOPATRE ( Composants Logiciels sur Etagères Ouverts Pour Applications Temps-Réel Embarquées). Ce système d'exploitation a la particularité de se présenter sous forme de composants à code source ouvert, interchangeables et sélectionnables en fonction du profil de l'application visée. L'objectif étant aussi de participer à l'évolution d'un standard communautaire ouvert, Linux, cette bibliothèque se présente comme un patch annexé à Linux via RTAI. Elle intégre des fonctionnalités innovantes principalement en matière de tolérance aux fautes, d'ordonnancement temps-réel et de gestion des ressources critiques, et permet de prendre en charge l'exécution de tâches périodiques et non-périodiques, de tâches critiques et non critiques de façon conjointe. La phase de développement qui a notamment utilisé la Programmation Orientée Aspect s'est poursuivie par une phase de validation pour évaluer les performances temporelles et tester l'applicabilité et l'interopérabilité des composants
The work presented in this thesis is relative to the design and the validation of a real-time operating system, namely CLEOPATRE ( Composants Logiciels sur Etagères Ouverts Pour Applications Temps-Réel Embarquées). This operating system has the main characteristics to be presented in the form of free open source components which are interchangeable and selectable according to the profile of the concerned application. The objective being also to take part in the evolution of Linux, the most famous open source operating system, this library has been designed as a patch attached to Linux via RTAI. It integrates innovating functionalities mainly as regards timing fault- tolerance, real-time scheduling and resource management, able to jointly cope with periodic and aperiodic tasks, critical and non-critical tasks. The development phase that, in particular uses the Aspect Oriented Programming, has continued by a validation phase to evaluate the temporal performances and test the applicability and inter-operability of the components
APA, Harvard, Vancouver, ISO, and other styles
29

Tawbi, Chawki. "Adactif : extension d'un SGBD à l'activité par une approche procédurale basée sur les rendez-vous." Toulouse 3, 1996. http://www.theses.fr/1996TOU30262.

Full text
Abstract:
L'activite dans les sgbd est mise en uvre grace aux regles evenement-condition-action (eca) qui servent a specifier le comportement actif du systeme et sa reaction vis a vis des situations rencontrees dans la bd et dans son environnement. L'evenement specifie le moment du declenchement de la regle, la condition verifie si l'etat de la bd necessite l'execution de l'action qui a son tour execute des operations en reponse a l'evenement. Ces operations peuvent servir a annuler la cause de l'evenement ou a executer ses consequences. Dans les travaux effectues durant la these, nous nous sommes interesses a un langage dote de mecanismes temps-reel afin de s'en inspirer pour etendre un sgbd passif a l'activite. Nous nous sommes inspires des taches ada et de leur mecanisme de synchronisation (les rendez-vous) pour implanter les regles dans notre sgbd actif baptise adactif. Les regles dans adactif sont considerees comme des taches actives attendant un rendez-vous du systeme en l'occurence de l'evenement declenchant. Chaque tache a en charge la verification d'une condition et, si elle est satisfaite, l'execution de l'action associee decrite de facon procedurale. Les taches dans adactif ont ete realisees a l'aide des processus unix et evoluent en parallele. La synchronisation dans le systeme, quant a elle, est mise en uvre a l'aide des pipe-line unix. D'autre part, comme les evenements composes (formes d'une combinaison d'evenements) jouent un role important dans les sgbd actifs, nous proposons un mecanisme de detection de ce type d'evenements base lui aussi sur le principe de tache et de rendez-vous. Ainsi, un evenement compose est detecte par une regle en attente de rendez-vous avec les evenements composants. Lorsque ces derniers sont au rendez-vous, et apres que la composition ait ete realisee, cette regle signale l'evenement compose au systeme. Cette approche permettra a l'utilisateur de specifier ses propres operateurs de composition conformement a la semantique de son application
APA, Harvard, Vancouver, ISO, and other styles
30

Grassineau, Benjamin. "La dynamique des réseaux coopératifs : l’exemple des logiciels libres et du projet d’encyclopédie libre et ouverte Wikipédia." Phd thesis, Paris 9, 2009. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2009PA090009.

Full text
Abstract:
Les pratiques organisationnelles et sociales non-marchandes et non-hiérarchiques liées aux nouvelles technologies de l'information et de la communication suscitent aujourd'hui de nombreuses réactions et controverses. Certains acteurs et chercheurs en contestent l'existence, d'autres affirment qu'il s'agit d'un phénomène minoritaire ou non durable, d'autres enfin, les cantonnent à la sphère virtuelle. S'inscrivant dans ces débats, ce travail analyse les différentes approches théoriques qui les sous-tendent, et les confronte à une observation empirique du réseau coopératif des logiciels libres et du projet d'encyclopédie libre et ouverte Wikipédia, en les replaçant dans le contexte idéologique propre à l'activité informatique. En développant un cadre conceptuel adéquat pour l'étude de ces entités sociales qui s'appuie sur l'interactionnisme symbolique et la sociologie critique d'Ivan Illich, cette réflexion dévoile la spécificité organisationnelle, économique et sociale de ces nouvelles pratiques, et expose ce qui a favorisé leur développement et leur croissance au cours de ces trois dernières décennies. L'accent est tout particulièrement mis sur l'intégration des facteurs culturels et sur la compréhension des mécanismes qui favorisent l'essor et l'expansion de ces nouvelles pratiques dans d'autres activités. Au final, cette réflexion rejoint un des questionnements fondamentaux de la société contemporaine, à savoir, celui posé par le développement de l'économie non-marchande et non-hiérarchique et par la déprofessionnalisation des activités immatérielles
Organizational and social non-market and non-hierarchical practices related to new information technologies and communication, caused many reactions and controversy. Some actors and thinkers their existence, others say it is a minority or unsustainable phenomenon, and others confined it exclusively to the virtual sphere. As part of these discussions, this thesis tries to make the synthese of the various theoretical approaches to these new practices and to confront them with a rigorous empirical observation of the cooperative network of free software and the free and open project of encyclopaedia Wikipedia. In developing a conceptual framework suitable to study the social entities, built on the symbolic interactionism and sociology critic Ivan Illich, this work show the specific organizational, economic and social form of these new practices, and understand what was able to promote their development and growth over the past three decades. We especially insist on cultural factors, rather than technical factors. Finally, the thesis attempts to reflect on what could eventually promote the development and expansion of these new practices. We are joining here a questioning of society deeper, and without answer : the challenges and uncertainties posed by the development of non-market economy and non-hierarchical
APA, Harvard, Vancouver, ISO, and other styles
31

Gallard, Pascal. "Conception d'un service de communication pour systèmes d'exploitation distribués pour grappes de calculateurs : mise en oeuvre dans le système à image unique Kerrighed." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00011152.

Full text
Abstract:
Dans la ligné des réseaux de stations de travail, les grappes de calculateurs représentent une alternative attrayante, en terme de performance et de coût, comparativement aux machines parallèles traditionnelles, pour l'exécution d'applications parallèles de calcul à haute performance. Une grappe de calculateurs est constituée d'un ensemble de noeuds interconnectés par un réseau dédié à haute performance. Les systèmes à image unique (Single System Image -- SSI) forment une classe de logiciel offrant aux utilisateurs et programmeurs d'une grappe de calculateurs, l'illusion d'une machine unique. Un SSI peut être conçu à différents niveaux (intergiciel, système d'exploitation) selon le degré d'exigence quant à la
réutilisation sans modification de modèles de programmation et d'applications existants. Dans notre contexte, les applications visées sont de type MPI ou OpenMP. Comme pour tout système distribué, le système d'interconnexion des noeuds de la grappe se trouve au coeur des performances globales de la grappe et des SSIs.

Les travaux présentés dans cette thèse portent sur la conception d'un système de communication dédié aux systèmes d'exploitation distribués pour grappes. Ces travaux s'inscrivent dans le cadre de la conception et la réalisation d'un SSI pour l'exécution d'applications haute performance sur grappe de calculateurs.

Notre première contribution se situe dans la conception d'un modèle de communication adapté aux communications internes aux services systèmes distribués qui constituent le SSI. En effet, de la performance des communications dépendent les performances globales de la grappe. Les transactions de communication permettent (i) de décrire un message lors de sa création, (ii) d'acheminer efficacement le message en
fontion des ressources disponibles, et (iii) de délivrer et traiter le
message au plus tôt sur le noeud destinataire.

Notre seconde contribution correspond à la conception d'un support au déplacement de processus communiquant par flux de données (socket, pipe, etc.). En effet, au sein d'un SSI, les processus peuvent être déplacés en cours d'exécution par un ordonnanceur global. Les flux dynamiques permettent le déplacement d'une extrémité de communication sans dégradation des performances.

Nos propositions ont été mises en oeuvre dans le prototype de SSI Kerrighed, conçu au sein du projet INRIA PARIS de l'IRISA. Ce prototype nous a permis d'évaluer le système de communication proposé. Nous avons montré une réactivité accrue des services systémes distribués ainsi qu'une absence de dégradation des performances des applications communiquant par messages (en particulier MPI) aprés déplacement d'un processus. L'ensemble de ce travail est distribué sous licence GPL en tant que partie de Kerrighed et est disponible à l'adresse: http://www.kerrighed.org.
APA, Harvard, Vancouver, ISO, and other styles
32

Maltais, Steeve. "Étude des préoccupations des techniciens en informatique dans le cadre du passage au système d'exploitation GNU/LINUX en milieu scolaire." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/24005/24005.pdf.

Full text
Abstract:
Cette étude porte sur les préoccupations de techniciens en milieu scolaire dans le cadre de l'intégration d'un nouveau système d'exploitation. Elle vise les objectifs suivants : 1) recenser les préoccupations des destinataires d'un changement dans le cadre du passage au système d'exploitation GNU/Linux et 2) savoir en quoi, selon eux, ces préoccupations risquent d’affecter leur façon de travailler avec un nouveau système d'exploitation. Quatre techniciens vivant un projet d'expérimentation visant à implanter le système d'exploitation GNU/Linux dans une commission scolaire furent interviewés. Les entrevues visant particulièrement à faire ressortir les craintes, les peurs, les préoccupations et les comportements de « non-changement ». Les résultats de l'étude ont démontrés que les techniciens vivant le projet d'expérimentation vivaient des préoccupations dans 3 phases de préoccupations sur une échelle de sept, soit les préoccupations centrées sur le destinataire, l'organisation et l'expérimentation. Malgré de nombreuses préoccupations les techniciens disent qu’ils sont prêts à aller de l'avant avec GNU/Linux à condition de respecter certaines règles, notamment en ce qui a trait au type d'installation du système d'exploitation GNU/Linux.
This study delineates the concerns of computer technicians pertaining to the integration of a new operating system (GNU/Linux). The study has the following aims: 1) to quantify and qualify the technicians concerns ; and 2) to examine whether or how these concerns might affect the ways in which recipients work within a new operating system. Four technicians undergoing an integration of the GNU/Linux operating system were interviewed. Interview questions focused technicians fears and concerns about the operating system as well as any elements that may – or may not – lead techniciens to not effectuate a system change. The results of the study show that the technicians had concerns in 3 particular phases (out of a potential scale of seven phases). Their concerns primarily revolved around the recipient, the organization and the experimentation itself. The study also shows that even if notable concerns are present, the technicians are still willing to implement the GNU/Linux operating system. Appeals to certain rules and what type of installation ought to occur (with respect to GNU/Linux) figured prominently.
APA, Harvard, Vancouver, ISO, and other styles
33

Georget, Laurent. "Suivi de flux d'information correct pour les systèmes d'exploitation Linux." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S040/document.

Full text
Abstract:
Nous cherchons à améliorer l'état de l'art des implémentations de contrôle de flux d'information dans les systèmes Linux. Le contrôle de flux d'information vise à surveiller la façon dont l'information se dissémine dans le système une fois hors de son conteneur d'origine, contrairement au contrôle d'accès qui ne peut permettre d'appliquer des règles que sur la manière dont les conteneurs sont accédés. Plusieurs défis scientifiques et techniques se sont présentés. Premièrement, la base de code Linux est particulièrement grande, avec quinze millions de lignes de code réparties dans trente-mille fichiers. La première contribution de cette thèse a été un plugin pour le compilateur GCC permettant d'extraire et visualiser aisément les graphes de flot de contrôle des fonctions du noyau. Ensuite, le framework des Linux Security Modules qui est utilisé pour implémenter les moniteurs de flux d'information que nous avons étudiés (Laminar [1], KBlare [2] et Weir [3]) a été conçu en premier lieu pour le contrôle d'accès, et non de flux. La question se pose donc de savoir si le framework est implémenté de telle sorte à permettre la capture de tous les flux produits par les appels système. Nous avons créé et implémenté une analyse statique permettant de répondre à ce problème. Cette analyse statique est implémenté en tant que plugin GCC et nous a permis d'améliorer le framework LSM pour capturer tous les flux. Enfin, nous avons constaté que les moniteurs de flux actuels n'étaient pas résistants aux conditions de concurrence entre les flux et ne pouvaient pas traiter certains canaux ouverts tels que les projections de fichiers en mémoire et les segments de mémoire partagée entre processus. Nous avons implémenté Rfblare, un nouvel algorithme de suivi de flux, pour KBlare, dont nous avons prouvé la correction avec Coq. Nous avons ainsi montré que LSM pouvait être utilisé avec succès pour implémenter le contrôle de flux d'information, et que seules les méthodes formelles, permettant la mise en œuvre de méthodologie, d'analyses ou d'outils réutilisables, permettaient de s'attaquer à la complexité et aux rapides évolutions du noyau Linux
We look forward to improving the implementations of information flow control mechanisms in Linux Operating Systems. Information Flow Control aims at monitoring how information disseminates in a system once it is out of its original container, unlike access control which can merely apply rule on how the containers are accessed. We met several scientific and technical challenges. First of all, the Linux codebase is big, over fifteen millions lines of code spread over thirty three thousand files. The first contribution of this thesis is a plugin for the GCC compiler able to extract and let a user easily visualize the control flow graphs of the Linux kernel functions. Secondly, the Linux Security Modules framework which is used to implement the information flow trackers we have reviewed (Laminar, KBlare, and Weir) was designed in the first place to implement access control, rather than information flow control. One issue is thus left open: is the framework implemented in such a way that all flows generated by system calls can be captured? We have created and implemented static analysis to address this problem and proved its correction with the Coq proof assistant system. This analysis is implemented as a GCC plugin and have allowed us to improve the LSM framework in order to capture all flows. Finally, we have noted that current information flow trackers are vulnerable to race conditions between flows and are unable to cover some overt channels of information such as files mapping to memory and shared memory segments between processes. We have implemented Rfblare, a new algorithm of flow tracking, for KBlare. The correction of this algorithm has been proved with Coq. We have showed that LSM can be used successfully to implement information flow control, and that only formal methods, leading to reusable methodology, analysis, tools, etc., are a match for the complexity and the fast-paced evolution of the Linux kernel
APA, Harvard, Vancouver, ISO, and other styles
34

Limam, Bedhiaf Imen. "Virtualisation des infrastructures des opérateurs de réseaux mobiles." Paris 6, 2011. http://www.theses.fr/2011PA066341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Bazm, Mohammad Mahdi. "Unified isolation architecture and mechanisms against side channel attacks for decentralized cloud infrastructures." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4042.

Full text
Abstract:
Depuis les travaux de Ristenpart [Ristenpart et al., 2009], les attaques par canaux auxiliaires se sont imposées comme un enjeu sécurité important pour les environnements virtualises, avec une amélioration rapide des techniques d’attaque, et de nombreux travaux de recherche pour les détecter et s’en prémunir. Ces attaques exploitent le partage de ressources matérielles comme les différents niveaux de cache processeur entre des locataires multiples en utilisant la couche de virtualisation. Il devient alors possible d’en contourner les mécanismes de sécurité entre différentes instances virtualisées, par exemple pour obtenir des informations sensibles comme des clés cryptographiques. L’analyse des défis d’isolation et des formes d’attaques par canaux auxiliaires basées sur le cache dans les infrastructures virtualisées met en évidence différentes approches pour les détecter ou les contrer, entre machines virtuelles ou conteneurs Linux. Ces approches se distinguent selon la couche logicielle ou seront appliquées les contre-mesures, applicative, système ou matérielle. La détection reste principalement effectuée au niveau de la couche système ou de virtualisation, ce niveau permettant simplement d’analyser le comportement des instances virtualisées. De nouvelles formes distribuées d’attaques ont aussi pu être mises en évidence. Pour la détection, nous explorons une approche combinant des compteurs de performance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la configuration du système plus dynamique et plus difficilement attaquable, a différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invite ou dans l’hyperviseur, avec de plus un surcoût très faible en performance. Nous explorons enfin l’utilisation de techniques d’exécution matérielle a base d’enclaves comme Intel SGX (Software Guard Extensions) pour assurer une exécution repartie de confiance de conteneurs Linux sur des couches logicielles qui ne le sont pas nécessairement. Ceci s’est traduit par la proposition d’un modèle d’exécution repartie sur infrastructure Fog pour conteneurs Linux. Il s’agit d’un premier pas vers une infrastructure repartie sécurisée Fog illustrant le potentiel de telles technologies
Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannelattacks is raising in virtualized environments such as cloud computing infrastructuresbecause of rapid improvements in the attack techniques. Therefore, the mitigationand the detection of such attacks have been getting more attention in these environments,and consequently have been the subject of intense research works.These attacks exploit for instance sharing of hardware resources such as the processorin virtualized environments. Moreover, the resources are often shared between differentusers at very low-level through the virtualization layer. As a result, such sharing allowsbypassing security mechanisms implemented at virtualization layer through such a leakysharing. Cache levels of the processor are the resources which are shared between instances,and play as an information disclosure channel. Side-channel attacks thus use this leakychannel to obtain sensitive information such as cryptographic keys.Different research works are already exist on the detection/mitigation of these attackin information systems. Mitigation techniques of cache-based side-channel attacks aremainly divided into three classes according to different layer of application in cloud infrastructures(i.e., application, system, and hardware). The detection is essentially done atOS/hypervisor layer because of possibility of analyzing virtualized instances behavior atboth layers.In this thesis, we first provide a survey on the isolation challenge and on the cachebasedside-channel attacks in cloud computing infrastructures. We then present differentapproaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks.Regarding the detection of cache-based side-channel attacks, we achieve that by leveragingHardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT)with anomaly detection approaches to identify a malicious virtual machine or a Linux container.Our experimental results show a high detection rate.We then leverage an approach based on Moving Target Defense (MTD) theory to interrupta cache-based side-channel attack between two Linux containers. MTD allows us tomake the configuration of system more dynamic and consequently more harder to attackby an adversary, by using shuffling at different level of system and cloud. Our approachdoes not need to carrying modification neither into the guest OS or the hypervisor. Experimentalresults show that our approach imposes very low performance overhead.We also discuss the challenge of isolated execution on remote hosts, different scenariosto secure execution of Linux containers on remote hosts and different trusted executiontechnologies for cloud computing environments. Finally, we propose a secure model fordistributed computing through using Linux containers secured by Intel SGX, to performtrusted execution on untrusted Fog computing infrastructures
APA, Harvard, Vancouver, ISO, and other styles
36

Todeschi, Grégoire. "Optimisation des caches de fichiers dans les environnements virtualisés." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0048.

Full text
Abstract:
Les besoins en ressources de calcul sont en forte augmentation depuis plusieurs décennies, que ce soit pour des applications du domaine des réseaux sociaux, du calcul haute performance, ou du big data. Les entreprises se tournent alors vers des solutions d'externalisation de leurs services informatiques comme le Cloud Computing. Le Cloud Computing permet une mutalisation des ressources informatiques dans un datacenter et repose généralement sur la virtualisation. Cette dernière permet de décomposer une machine physique, appelée hôte, en plusieurs machines virtuelles (VM) invitées. La virtualisation engendre de nouveaux défis dans la conception des systèmes d'exploitation, en particulier pour la gestion de la mémoire. La mémoire est souvent utilisée pour accélérer les coûteux accès aux disques, en conservant ou préchargeant les données du disque dans le cache fichiers. Seulement la mémoire est une ressource limitée et limitante pour les environnements virtualisés, affectant ainsi les performances des applications utilisateurs. Il est alors nécessaire d'optimiser l'utilisation du cache de fichiers dans ces environnements. Dans cette thèse, nous proposons deux approches orthogonales pour améliorer les performances des applications à l'aide d'une meilleure utilisation du cache fichiers. Dans les environnements virtualisés, hôte et invités exécutent chacun leur propre système d'exploitation (OS) et ont donc chacun un cache de fichiers. Lors de la lecture d'un fichier, les données se retrouvent présentes dans les deux caches. Seulement, les deux OS exploitent la même mémoire physique. On parle de duplication des pages du cache. La première contribution vise à pallier ce problème avec Cacol, une politique d'éviction de cache s'exécutant dans l'hôte et non intrusive vis-à-vis de la VM. Cacol évite ces doublons de pages réduisant ainsi l'utilisation de la mémoire d'une machine physique. La seconde approche est d'étendre le cache fichiers des VM en exploitant de la mémoire disponible sur d'autres machines du datacenter. Cette seconde contribution, appelée Infinicache, s'appuie sur Infiniband, un réseau RDMA à haute vitesse, et exploite sa capacité à lire et à écrire sur de la mémoire à distance. Directement implémenté dans le cache invité, Infinicache stocke les pages évincées de son cache sur de la mémoire à distance. Les futurs accès à ces pages sont alors plus rapides que des accès aux disques de stockage, améliorant par conséquent les performances des applications. De plus, le taux d'utilisation de la mémoire à l'échelle du datacenter est augmenté, réduisant le gaspillage de manière globale
The need for computing resources has been growing significantly for several decades, in application domains from social networks, high-performance computing, or big data. Consequently, companies are outsourcing theirs IT services towards Cloud Computing solutions. Cloud Computing allows mutualizing computing resources in a data center, and generally relies on virtualization. Virtualization allows a physical machine, called a host, to be split into multiple guest virtual machines (VMs). Virtualization brings new challenges in the design of operating systems, especially memory management. Memory is often used to speed up expensive disk accesses by storing or preloading data from the disk to the file cache. However memory is a limited and limiting resource for virtualized environments, thus impacting the performance of user applications. It is therefore necessary to optimize the use of the file cache in these environments. In this thesis, we propose two orthogonal approaches to improve application performance through better use of the file cache. In virtualized environments, both host and guests run their own operating system (OS) and thus have their own file cache. When a file is read, the data is present in both caches. However, both OSes use the same physical memory. We hence have a phenomenon called pages duplication. The first contribution aims at alleviating this problem with Cacol, a host cache eviction policy, which is non-intrusive for the VM. Cacol avoids these duplicated pages, thus reducing the memory usage of a physical machine. The second approach is to extend the file cache of VMs by exploiting memory available on other machines in the datacenter. This second contribution, called Infinicache, relies on Infiniband, a high-speed RDMA network, and exploits its ability to read and write remote memory. Implemented directly in the guest cache, Infinicache stores on remote memory pages that have been evicted from its cache. Future accesses to these pages are then be faster than accesses to storage disks, thereby improving application performance. In addition, the datacenter-wide memory utilization rate is increased, reducing overall memory wasting
APA, Harvard, Vancouver, ISO, and other styles
37

Dib, Khadidja. "Simir-n : un support informatique temps-réel pour la robotique." Paris 11, 1985. http://www.theses.fr/1985PA112346.

Full text
Abstract:
Les systèmes de programmation de robots se caractérisent par une complexité croissante dûe à l’introduction continuelle de nouvelles techniques provenant de domaines divers tels que la conception de robots, la commande, les capteurs, la reconnaissance des formes, les réseaux. La flexibilité est la caractéristique essentielle d’un système robotique de troisième génération. SIMIR (Support Interactif, Multitâches, pour l’Intégration en Robotique) assure la cohabitation des modules spécifiques à la robotique. ACTION-COMMANDE, PERCEPTION, COMMUNICATION et DECISION. SIMIR est conçu pour répondre aux critères de portabilité, d’interactivité, de modularité et de parallélisme dans un environnement robotique. Il comprend deux niveaux : SIMIR-N et SIMIR-L. SIMIR-N qui est décrit dans ce rapport de thèse est constitué essentiellement par un ensemble de serveurs et d’une bibliothèque de primitives. Pour bénéficier de la reconnaissance de fait d’UNIX comme un standard dans le monde des constructeurs d’ordinateurs, SIMIR est implémenté autour de ce système d’exploitation
The new technics such as robot conception, control, sensors, form analysis, networks increase the complexity in robotic programming systems. Flexibility is an essential feature of robotics system especially of the third generation. SIMIR (Support Interactif, Multitaches, pour l’Intégration en Robotique) insures cooperation between the robotic specific modules. CONTROL, PERCEPTION, COMMUNICATION and DECISION. In addition SIMIR supports portability, interactivity, modularity and parallelism. SIMIR includes two levels: SIMIR-N and SIMIR-L. SIMIR-N, the subject of this report, is constituted by a set of managers and a primitive’s library. As the kernel UNIX is a standard in the world of computer manufacturers, SIMIR is implemented around this kernel
APA, Harvard, Vancouver, ISO, and other styles
38

Albinet, Arnaud. "Caractérisation de la sûreté de fonctionnement des systèmes d'exploitation en présence de pilotes défaillants." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00010056.

Full text
Abstract:
Les pilotes de périphériques composent désormais une part essentielle des systèmes d'exploitation. Plusieurs études montrent qu'ils sont fréquemment à l'origine des dysfonctionnements des systèmes opératoires. Dans ce mémoire, nous présentons une méthode pour l'évaluation de la robustesse des noyaux face aux comportements anormaux des pilotes de périphériques. Pour cela, après avoir analysé et précisé les caractéristiques des échanges entre les pilotes et le noyau (DPI - Driver Programming Interface), nous proposons une technique originale d'injection de fautes basée sur la corruption des paramètres des fonctions manipulées au niveau de cette interface. Nous définissons différentes approches pour l'analyse et l'interprétation des résultats observés pour obtenir des mesures objectives de sûreté de fonctionnement. Ces mesures permettent la prise en compte de différents points de vue afin de répondre aux besoins réels de l'utilisateur. Enfin, nous illustrons et validons l'applicabilité de cette méthode par sa mise en Suvre dans le cadre d'un environnement expérimental sous Linux. La méthode proposée contribue à la caractérisation de la sûreté de fonctionnement des noyaux vis-à-vis des défaillances des pilotes du système. L'impact des résultats est double : a) permettre au développeur de tels logiciels d'identifier les faiblesses potentielles affectant la sûreté de fonctionnement du système, b) aider un intégrateur dans le choix du composant le mieux adapté à ses besoins.
APA, Harvard, Vancouver, ISO, and other styles
39

Sánchez, Arias Victor Germán. "Un noyau pour la communication et la synchronisation de processus répartis." Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00315307.

Full text
Abstract:
Ce travail présente un modèle de noyau de communication pour les systèmes répartis. Son architecture, basée sur le modèle de CSP proposé par HOARE, a été définie pour un type particulier de système, les systèmes "temps réel" répartis sur un réseau local. Il s'agit donc d'un modèle adapté à une classe précise d'application, à l'opposé de la plupart des études qui traitent des noyaux de systèmes répartis généraux. Ce noyau est basé sur deux classes d'objets : les processus "normaux" pour exprimer les traitements séquentiels et de processus appelés canaux pour implémenter à la fois la communication et la synchronisation. Une implémentation de ce noyau a été réalisée sur UNIX
APA, Harvard, Vancouver, ISO, and other styles
40

Gautron, Philippe. "UNIX et multiprocessus, C++ et multitâche : une approche logicielle de la simulation et de l'improvisation dans le jazz." Paris 11, 1985. http://www.theses.fr/1985PA112261.

Full text
Abstract:
Cette thèse traite l'approche logicielle de l'improvisation dans le jazz et tire profit pour cela des ressources d'un système d'exploitation, UNIX et d'un langage Orienté Objets, C++. L'architecture conceptuelle repose sur une double ossature parallèle : multiprocessus pour la synchronisation des voies musicales, multitâche pour la gestion des accords (notes simultanées) propres à chaque voie. Ces techniques de programmation ont permis l'élaboration de trois logiciels dans des domaines rythmiques différents : blues tempo rapide et lent, ballad.
APA, Harvard, Vancouver, ISO, and other styles
41

Martins, Joberto Sergio Barbosa. "Un support de communication pour le système Unix/Ethernet." Paris 6, 1986. http://www.theses.fr/1986PA066125.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Jomaa, Narjes. "Le co-design d’un noyau de système d’exploitation et de sa preuve formelle d’isolation." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I075/document.

Full text
Abstract:
Dans cette thèse nous proposons un nouveau concept de noyau adapté à la preuve que nous avons appelé « proto-noyau ». Il s’agit d’un noyau de système d’exploitation minimal où la minimisation de sa taille est principalement motivée par la réduction du coût de la preuve mais aussi de la surface d’attaque. Ceci nous amène à définir une nouvelle stratégie de « co-design » du noyau et de sa preuve. Elle est fondée principalement sur les feedbacks entre les différentes phases de développement du noyau, allant de la définition des besoins jusqu’à la vérification formelle de ses propriétés. Ainsi, dans ce contexte nous avons conçu et implémenté le proto-noyau Pip. L’ensemble de ses appels système a été choisi minutieusement pendant la phase de conception pour assurer à la fois la faisabilité de la preuve et l’utilisabilité du système. Le code de Pip est écrit en Gallina (le langage de spécification de l’assistant de preuve Coq) puis traduit automatiquement vers le langage C. La propriété principale étudiée dans ces travaux est une propriété de sécurité, exprimée en termes d’isolation mémoire. Cette propriété a été largement étudiée dans la littérature de par son importance. Ainsi, nos travaux consistent plus particulièrement à orienter le développement des concepts de base de ce noyau minimaliste par la vérification formelle de cette propriété. La stratégie de vérification a été expérimentée, dans un premier temps, sur un modèle générique de micro-noyau que nous avons également écrit en Gallina. Par ce modèle simplifié de micro-noyau nous avons pu valider notre approche de vérification avant de l’appliquer sur l’implémentation concrète du proto-noyau Pip
In this thesis we propose a new kernel concept adapted to verification that we have called protokernel. It is a minimal operating system kernel where the minimization of its size is motivated by the reduction of the cost of proof and of the attack surface. This leads us to define a new strategy of codesign of the kernel and its proof. It is based mainly on the feedbacks between the various steps of development of the kernel, ranging from the definition of its specification to the formal verification of its properties. Thus, in this context we have designed and implemented the Pip protokernel. All of its system calls were carefully identified during the design step to ensure both the feasibility of proof and the usability of the system. The code of Pip is written in Gallina (the specification language of the Coq proof assistant) and then automatically translated into C code. The main property studied in this work is a security property, expressed in terms of memory isolation. This property has been largely discussed in the literature due to its importance. Thus, our work consists more particularly in guiding the developer to define the fundamental concepts of this minimalistic kernel through the formal verification of its isolation property. The verification strategy was first experimented with a generic microkernel model that we also wrote in Gallina. With this simplified microkernel model we were able to validate our verification approach before applying it to the concrete implementation of the Pip protokernel
APA, Harvard, Vancouver, ISO, and other styles
43

Millon, Etienne. "Analyse de sécurité de logiciels système par typage statique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01067475.

Full text
Abstract:
Les noyaux de systèmes d'exploitation manipulent des données fournies par les programmes utilisateur via les appels système. Si elles sont manipulées sans prendre une attention particulière, une faille de sécurité connue sous le nom de Confused Deputy Problem peut amener à des fuites de données confidentielles ou l'élévation de privilèges d'un attaquant. Le but de cette thèse est d'utiliser des techniques de typage statique afin de détecter les manipulations dangereuses de pointeurs contrôlés par l'espace utilisateur. La plupart des systèmes d'exploitation sont écrits dans le langage C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa sémantique opérationnelle et un premier système de types sont décrits, et les propriétés classiques de sûreté du typage sont établies. La manipulation des états mémoire est formalisée sous la forme de lentilles bidirectionnelles, qui permettent d'encoder les mises à jour partielles des états et variables. Un première analyse sur ce langage est décrite, permettant de distinguer les entiers utilisés comme bitmasks, qui sont une source de bugs dans les programmes C.
APA, Harvard, Vancouver, ISO, and other styles
44

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Full text
Abstract:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
APA, Harvard, Vancouver, ISO, and other styles
45

Hsu, Lung-Cheng. "Pbase : une base de données déductive en Prolog." Compiègne, 1988. http://www.theses.fr/1988COMPD126.

Full text
Abstract:
Ce travail présente un SGBD (Système de Gestion de Base de Données) couplant PROLOG II et VAX RMS (Record Management System). Les LDD (Langage de Définition de Données) et le LMD (Langage de Manipulation des Données) sont implantés en PROLOG et la gestion du stockage et de la recherche des enregistrements correspondant aux faits est déléguée à RMS. L'organisation indexée est adoptée pour fournir un temps de réponse satisfaisant. Une interface écrite en PASCAL assure la communication entre PROLOG et RMS. L'intérêt de PBASE est qu'il peut fonctionner comme un SGBD général ou bien qu'il peut coopérer avec un système expert pour gérer des faits volumineux stockés en mémoire secondaire. L'ouverture vers VAX RDB (Relational DataBase) est aussi possible. Bien que PBASE s'applique aussi bien aux relations normalisées que celles non-normalisées, un module de normalisation est inclus afin d'éviter les problèmes créés par la redondance de données
This thesis describes a relational database system coupling PROLOG II and VAX RMS (Record Management Services). The SQL-like DDL (Data Definition Language) and DML (Data Manipulation Language) are implemented in PROLOG and the management of storage and research of fact record is delegated to RMS. The indexed file organization is adopted to provide a satisfactory response time. An interface written in PASCAL is called to enable the communication between PROLOG and RMS. Once the interface is established, access to the database is transparent. No precompilation is requiert. PBASE can be used as a general DBMS or it can cooperate with an expert system (Our SQL translation module can be considered as such) to manage the voluminous facts stored in the secondary memory. It can also cooperate with VAX RDB (Relational DataBase) to constitute a powerful deductive database. Although PBASE works for normalized relations as well as non-normalized ones, a normalization module is included to avoid the problems caused by the redundancy of data
APA, Harvard, Vancouver, ISO, and other styles
46

Lemerre, Matthieu. "Intégration de systèmes hétérogènes en termes de niveaux de sécurité." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00440329.

Full text
Abstract:
Cette thèse étudie les principes de mise en oeuvre pour l'exécution sur un même ordinateur, de tâches de niveaux de criticité différents, et dont certaines peuvent avoir des contraintes temps réel dur. Les difficultés pour réaliser ces objectifs forment trois catégories. Il faut d'abord prouver que les tâches disposeront d'assez de ressources pour s'exécuter; il doit être ainsi possible d'avoir des politiques d'allocations et d'ordonnancement sûres, prévisibles et simples. Il faut également apporter des garanties de sécurité pour s'assurer que les tâches critiques s'exécuteront correctement en présence de défaillances ou malveillances. Enfin, le système doit pouvoir être réutilisé dans une variété de situations. Cette thèse propose de s'attaquer au problème par la conception d'un système hautement sécurisé, extensible, et qui soit indépendant des politiques d'allocation de ressources. Cela est notamment accompli par le prêt de ressource, qui permet de décompter les ressources indépendamment des domaines de protection. Cette approche évite d'avoir à partitionner les ressources, ce qui simplifie le problème global de l'allocation et permet de ne pas gâcher de ressources. Les problèmes de type inversion de priorité, famine ou dénis de service sont supprimés à la racine. Nous démontrons la faisabilité de cette approche è l'aide d'un prototype, Anaxagoros. La démarche que nous proposons simplifie drastiquement l'allocation des ressources mais implique des contraintes dans l'écriture de services partagés (comme les pilotes de périphériques). Les principales difficultés consistent en des contraintes de synchronisation supplémentaires. Nous proposons des mécanismes originaux et efficaces pour résoudre les problèmes de concurrence et synchronisation, et une méthodologie générale pour faciliter l'écriture sécurisée de ces services partagés.
APA, Harvard, Vancouver, ISO, and other styles
47

Wailly, Aurélien. "End-to-end security architecture for cloud computing environments." Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0020/document.

Full text
Abstract:
La virtualisation des infrastructures est devenue un des enjeux majeurs dans la recherche, qui fournissent des consommations d'énergie moindres et des nouvelles opportunités. Face à de multiples menaces et des mécanismes de défense hétérogènes, l'approche autonomique propose une gestion simplifiée, robuste et plus efficace de la sécurité du cloud. Aujourd'hui, les solutions existantes s'adaptent difficilement. Il manque des politiques de sécurité flexibles, une défense multi-niveaux, des contrôles à granularité variable, ou encore une architecture de sécurité ouverte. Ce mémoire présente VESPA, une architecture d'autoprotection pour les infrastructures cloud. VESPA est construit autour de politiques qui peuvent réguler la sécurité à plusieurs niveaux. La coordination flexible entre les boucles d'autoprotection réalise un large spectre de stratégies de sécurité comme des détections et des réactions sur plusieurs niveaux. Une architecture extensible multi plans permet d'intégrer simplement des éléments déjà présents. Depuis peu, les attaques les plus critiques contre les infrastructures cloud visent la brique la plus sensible: l'hyperviseur. Le vecteur d'attaque principal est un pilote de périphérique mal confiné. Les mécanismes de défense mis en jeu sont statiques et difficile à gérer. Nous proposons une approche différente avec KungFuVisor, un canevas logiciel pour créer des hyperviseurs autoprotégés spécialisant l'architecture VESPA. Nous avons montré son application à trois types de protection différents : les attaques virales, la gestion hétérogène multi-domaines et l'hyperviseur. Ainsi la sécurité des infrastructures cloud peut être améliorée grâce à VESPA
Since several years the virtualization of infrastructures became one of the major research challenges, consuming less energy while delivering new services. However, many attacks hinder the global adoption of Cloud computing. Self-protection has recently raised growing interest as possible element of answer to the cloud computing infrastructure protection challenge. Yet, previous solutions fall at the last hurdle as they overlook key features of the cloud, by lack of flexible security policies, cross-layered defense, multiple control granularities, and open security architectures. This thesis presents VESPA, a self-protection architecture for cloud infrastructures. Flexible coordination between self-protection loops allows enforcing a rich spectrum of security strategies. A multi-plane extensible architecture also enables simple integration of commodity security components.Recently, some of the most powerful attacks against cloud computing infrastructures target the Virtual Machine Monitor (VMM). In many case, the main attack vector is a poorly confined device driver. Current architectures offer no protection against such attacks. This thesis proposes an altogether different approach by presenting KungFuVisor, derived from VESPA, a framework to build self-defending hypervisors. The result is a very flexible self-protection architecture, enabling to enforce dynamically a rich spectrum of remediation actions over different parts of the VMM, also facilitating defense strategy administration. We showed the application to three different protection scheme: virus infection, mobile clouds and hypervisor drivers. Indeed VESPA can enhance cloud infrastructure security
APA, Harvard, Vancouver, ISO, and other styles
48

Carver, Damien. "Advanced consolidation for dynamic containers." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS513.

Full text
Abstract:
La virtualisation des ressources informatiques a donné naissance au Cloud Computing. Plus récemment, la virtualisation légère à base de conteneur est devenu de plus en plus populaire. En effet, les conteneurs offrent une isolation des performances comparable à celle des machines virtuelles, mais promettent une meilleur consolidation des ressources grâce à leur flexibilité. Dans cette thèse nous mettons en lumière des pertes d'isolation de performance supposé garanti à un conteneur actif. Ces pertes apparaissent pendant la consolidation, c'est-à-dire, lorsque la mémoire inutilisée d'un conteneur inactif est transférée vers un nouveau conteneur qui démarre. Or, dans un environnement non virtualisé, ce scénario de consolidation mémoire n'aboutit pas à une chute de performances chez les processus les plus actifs. Nous proposons donc, dans un premier temps, de mesurer l'activité mémoire des conteneurs à l'aide de métriques présentes dans l'état de l'art. Puis, pour garantir l'isolation des conteneurs les plus actifs lors des consolidations mémoire, nous modifions le comportement du noyau Linux afin de récupérer en priorité la mémoire des conteneurs définis comme étant les plus inactifs par la métrique. Dans un deuxième temps, nous proposons une autre méthode d'estimation de l'activité mémoire des conteneurs qui repose sur une horloge globale d'événements mémoire. Cette méthode est plus réactive que la précédente car elle cherche à protéger les conteneurs dont l'activité mémoire est la plus récente
The virtualization of computing resources has given rise to cloud computing. More recently, container-based lightweight virtualization has become increasingly popular. Containers offer performance isolation comparable to that of virtual machines, but promise better resource consolidation due to their flexibility. In this thesis we highlight performance isolation losses assumed to be guaranteed to an active container. These losses occur during consolidation, i.e. when the unused memory of an inactive container is transferred to a new container that starts. However, in a non-virtualized environment, this memory consolidation scenario does not result in a drop in performance among the most active processes. We therefore propose, as a first step, to measure the memory activity of containers using state-of-the-art metrics. Then, to ensure the isolation of the most active containers during memory consolidations, we modify the behavior of the Linux kernel in order to reclaim the memory of the containers defined as being the most inactive by the metric. In a second step, we propose another method for estimating the memory activity of containers based on a global clock of memory events. This method is more reactive than the previous one because it seeks to protect containers with the most recent memory activity
APA, Harvard, Vancouver, ISO, and other styles
49

Manzalini, Antonio. "An operating system for 5G Edge Clouds." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0013.

Full text
Abstract:
La technologie et les conducteurs socio-économiques créent les conditions d'une transformation profonde, appelée "Softwarization", du Telco et des TIC. Réseaux définis par logiciel et réseau Fonctions de virtualisation sont deux des principales technologies permettant ouvrant la voie à cette transformation. Softwarization permettra de virtualiser toutes les fonctions de réseau et de services d'une infrastructure de Telco et de les exécuter sur une plates-formes logicielles, entièrement découplés de l'infrastructure physique sous (presque basé sur du matériel standard). Tous les services seront fournis en utilisant un «continuum» des ressources virtuelles (traitement, de stockage et de communication) avec un investissement en capital initial pratiquement très limité et avec des coûts d'exploitation modestes. 5G sera la première exploitation de Softwarization. 5G sera une infrastructure distribuée massivement dense, intégrant le traitement, le stockage et (fixes et radio) des capacités de mise en réseau. En résumé, l'objectif général de cette thèse a étudié les défis techniques et les opportunités d'affaires apportées par le "Softwarization" et 5G. En particulier, la thèse propose que le 5G devra avoir une sorte de système d'exploitation (5GOS) capable de fonctionner les RAN et de base et les infrastructures fixes convergés. Les contributions de cette thèse ont été: 1) définir une vision pour les futures infrastructures 5G, des scénarios, des cas d'utilisation et les exigences principales: 2) définissant l'architecture fonctionnelle d'un système d'exploitation pour 5G; 3) la conception de l'architecture logicielle d'un 5GOS pour le "bord Cloud"; 4) comprendre les impacts technico-économiques de la vision et 5GOS, et les stratégies les plus efficaces pour l'exploiter
Technology and socio-economic drivers are creating the conditions for a profound transformation, called “Softwarization”, of the Telco and ICT. Software-Defined Networks and Network Functions Virtualization are two of the key enabling technologies paving the way towards this transformation. Softwarization will allow to virtualize all network and services functions of a Telco infrastructure and executing them onto a software platforms, fully decoupled from the underneath physical infrastructure (almost based on standard hardware). Any services will be provided by using a “continuum” of virtual resources (processing, storage and communications) with practically very limited upfront capital investment and with modest operating costs. 5G will be the first exploitation of Softwarization. 5G will be a massively dense distributed infrastructure, integrating processing, storage and (fixed and radio) networking capabilities. In summary, the overall goal of this thesis has been investigating technical challenges and business opportunities brought by the “Softwarization” and 5G. In particular, the thesis proposes that the 5G will have to have a sort of Operating System (5GOS) capable of operating the converged fixed and RAN and core infrastructures. Main contributions of this thesis have been: 1) defining a vision for future 5G infrastructures, scenarios, use-cases and main requirements; 2) defining the functional architecture of an Operating System for 5G; 3) designing the software architecture of a 5G OS for the “Edge Cloud”; 4) understanding the techno-economic impacts of the vision and 5GOS, and the most effective strategies to exploit it
APA, Harvard, Vancouver, ISO, and other styles
50

Hamzaoui, Khalil Ibrahim. "Contribution à la modélisation de la consommation d'énergie dans un dispositif mobile." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I030/document.

Full text
Abstract:
L’objectif principal de cette thèse consiste à modéliser la consommation d’énergie d’une application particulière fonctionnant sur un appareil mobile. Nous proposons un modèle de suivi du comportement énergétique, nous décrivons également une méthodologie pour identifier les paramètres du modèle. À cette fin, nous avons analysé une collection de données expérimentales recueillies lors de mon tour de France en fauteuil roulant électrique. Nous avons appliqué des outils statistiques pour obtenir les paramètres du modèle. Nous validons enfin le modèle en comparant les résultats avec d’autres données expérimentales.La première étude de cas permet de comparer l’évolution du coût énergétique dans les environnements mobiles des différents composants des smartphones en se basant sur des plusieurs modèles énergétiques.— La deuxième étude de cas traite l’évaluation, les mesures du coût d’énergie consommée et les problèmes rencontrés dans les méthodes utilisées pour l’évaluation de la consommation d’énergie. Pour une meilleure évaluation, on a introduit le cas d’étude du comportement énergétique en utilisant les machines virtuelles.— La troisième étude de cas est basée sur le traitement des résultats des mesures obtenues lors de mon tour de France en fauteuil roulant électrique connecté. L’objectif consiste en une gestion anticipée des ressources, en réalisant des mesures réelles, ensuite, de faire le suivi du comportement énergétique dans un environnement réel et diversifié. Le modèle peut être utilisé pour définir une fréquence optimale en termes de consommation d’énergie pour des situations précises sans trop dégrader la qualité de service souhaitée par l’utilisateur
The main goal of this thesis is to model the power consumption of a particular application running on a mobile device. We propose a model of energy behavior monitoring, we also describe a methodology to identify the parameters of the model. To this end, we analyzed a collection of experimental data collected during my tour de France in an electric wheelchair. We applied statistical tools to obtain the parameters of the model. Finally, we validate the model by comparing the results with other experimental data.The first case study compares the evolution of the energy cost in the mobile environments of the different components of smartphones based on several energy models.- The second case study deals with the evaluation, the measurements of the energy cost consumed and the problems encountered in the methods used for the evaluation of energy consumption. For a better evaluation, the case study of energy behavior was introduced using the virtual machines.- The third case study is based on the treatment of the results of the measurements obtained during my tour of France in a connected electric wheelchair. The goal is to anticipate resource management, realizing measurements, and then tracking energy behavior in a real and diverse environment. The model can be used to define an optimal frequency in terms of energy consumption for specific situations without degrading the quality of service desired by the user
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography