To see the other types of publications on this topic, follow the link: Linux (Système d'exploitation des ordinateurs).

Dissertations / Theses on the topic 'Linux (Système d'exploitation des ordinateurs)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Linux (Système d'exploitation des ordinateurs).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Boukhobza, Jalil. "Etude et analyse des performances et simulation des accès aux fichiers sur PC." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0019.

Full text
Abstract:
L'évolution des sous systèmes de stockage et plus particulièrement des disques a été considérable ces dernières années. Cependant, l'écart de performance entre ces dernièrs et les processeurs ne cesse de se creuser. Il est donc essentiel de bien choisir les ressources de stockage secondaire et de les utiliser d'une manière optimale. Pour y parvenir, une compréhension complète du fonctionnement logiciel et matériel des systèmes de stockage ainsi que des interactions entre les différents modules de ce système est indispensable. Nous nous sommes intéressés dans cette thèse à la mesure et à l'analyse des performances, ainsi qu'à la simulation de l'architecture de stockage sur PC. Nous étudions en particulier les systèmes d'E/S sous Windows ou plus exactement les mécanismes d'accès aux fichiers. L'utilisation de certains paramètres dans la fonction d'ouverture et de création de fichiers CreateFile sous Windows détermine la manière avec laquelle se fera l'accès aux fichiers. Le choix d'une stratégie de lecture par anticipation, d'algorithmes d'écriture retardée, de la taille des blocs systèmes ainsi que d'autres paramètres se fait par le système d'après le paramétrage de cette même fonction. Il est donc important de connaître et de comprendre l'influence de ces choix sur les performances des E/S qui sont bien sûr relatives à la charge de travail imposée au système. Le travail effectué dans le cadre de cette thèse consiste à d'abord trouver un moyen efficace de mesure de performance spécifique à Windows, c'est-à-dire que l'on prend en compte les paramètres spécifiques à la fonction CreateFile ainsi que les tailles de requêtes. En effet, nous avons remarqué des fluctuations de performance très importantes selon la stratégie d'accès aux fichiers choisie. Nous avons par la suite développé une méthodologie d'analyse des systèmes de stockage sous Windows grâce à laquelle nous avons identifié les différents paramètres de stockage aidant à la compréhension des performances obtenues. C'est l'analyse des temps de réponse qui a permis cette compréhension. En effet, nous avons remarqué une périodicité des temps de réponse dans le cas des accès à des blocs stockés séquentiellement sur le disque, c'est ce qui nous a permis de commencer l'analyse. Une fois cette analyse effectuée, un simulateur comportemental du système de stockage de Windows a été développé. Il permet entre autres d'évaluer les performances d'une charge de travail sur une architecture donnée pour qu'un utilisateur puisse décider de la stratégie d'accès aux fichiers la plus efficace à adopter avant l'implémentation de son application<br>The evolution of storage subsystems and more particularly disks was considerable this last decade. However, the performance gap between secondary storage and processor is still increasing. It is therefore crucial to well choose the storage subsystem and to know how to use it in an optimal way. In order to resolve this problem, a complete understanding of the software and hardware behaviours of storage systems as well as the interactions between the different modules of the I/O system is required. We are interested in this thesis in the benchmarking, the performance analysis and the simulation of the storage architecture on PCs. We are particularly studying the I/O system under Windows and the file access mechanisms. The use of some parameters in the file opening and creation function CreateFile under Windows decides on the way files are accessed. The choice of a read ahead algorithm, a lazy write strategy, the system data block size and other parameters is done by the system and depends on those function parameters. It is thus very important to understand the impact of those choices on the I/O performance of the system that are of course relative to the injected workload. The realized work consists of finding at first an efficient way to measure the specific Windows storage system performance depending on the parameters like those specified in the CreateFile function and request sizes. We have noticed very important performance fluctuations relative to the file access strategy used. We have then developed a methodology to analyse Windows storage systems. We have identified thanks to this methodology different parameters that helped us to understand the performance fluctuations we obtained. It is the response time analysis step that allowed this understanding. We observed that response times are periodic when the accessed blocks were stored sequentially on the disk, that was the starting point of our analysis. Once the performance study and analysis done, a behavioral simulator of the Windows storage system has been developed. It allows for instance the performance evaluation of a given workload on defined storage architecture for a user to decide of the most effective access strategy to adopt before implementing his application
APA, Harvard, Vancouver, ISO, and other styles
2

Laniel, Francis. "MemOpLight : vers une consolidation mémoire pour les conteneurs grâce à un retour applicatif." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS372.

Full text
Abstract:
Le déploiement et l'exécution d'applications dans le cloud sont aujourd'hui une réalité. L'existence de celui-ci est intrinsèquement liée à celle de la virtualisation. Ce concept consiste à découper une machine physique en plusieurs sous-machines, dites machines virtuelles, isolées les unes des autres. Plus récemment, les conteneurs se sont posés comme une alternative viable aux machines virtuelles. Les conteneurs sont plus légers que ces dernières et apportent les mêmes garanties d'isolation et de sécurité. Néanmoins, l'isolation, un conteneur ne peut affamer ses congénères, proposée est peut-être trop poussée. En effet, les mécanismes existants permettant l'isolation mémoire ne s'adaptent pas aux changements de charge de travail. Il n'est donc pas possible de consolider la mémoire, c'est-à-dire récupérer la mémoire inutilisée d'un conteneur pour en faire un meilleur usage. Pour répondre à ce problème et garantir, à la fois, l'isolation et la consolidation mémoire, nous proposons MemOpLight. Ce mécanisme s'adapte aux changements de charge de travail grâce à un retour applicatif. Chaque conteneur indique donc s'il a de bonnes performances pour guider la répartition de la mémoire. Celle-ci est récupérée aux conteneurs ayant de bonnes performances pour que les autres conteneurs puissent augmenter celles-ci. L'idée étant de trouver un équilibre mémoire où tous les conteneurs ont des performances satisfaisantes. MemOpLight permet d'augmenter la satisfaction des conteneurs de 13% comparé aux mécanismes existants<br>Nowadays, deploying and executing applications in the cloud is a reality. The cloud can not exist without virtualization. This concept consists of slicing physical machines into several sub-machines, isolated from one another, known as virtual machines. Recently, containers emerged as a viable alternative to virtual machines. Containers are lighter than virtual machines and bring the same isolation and security guarantees. Nonetheless, the isolation they offer is maybe too important. Indeed, existing mechanisms enforce memory isolation by ensuring that no container starves the others; however, they do not adapt to changes in workload. Thus, it is impossible to consolidate memory, i.e. to reclaim memory unused by some containers to make a better use of it. To answer this problem and ensure both isolation and consolidation, we introduce MemOpLight. This mechanism adapts to workload changes thanks to application feedback. Each container tells the kernel whether it has good or bad performance to guide memory reclaim. Memory is first reclaimed from containers with good performance in the hope that the others can improve their own performance. The idea is to find a balance where all containers have satisfying performance. MemOpLight increases container satisfactions by 13% compared to existing mechanisms
APA, Harvard, Vancouver, ISO, and other styles
3

Georget, Laurent. "Suivi de flux d'information correct pour les systèmes d'exploitation Linux." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S040/document.

Full text
Abstract:
Nous cherchons à améliorer l'état de l'art des implémentations de contrôle de flux d'information dans les systèmes Linux. Le contrôle de flux d'information vise à surveiller la façon dont l'information se dissémine dans le système une fois hors de son conteneur d'origine, contrairement au contrôle d'accès qui ne peut permettre d'appliquer des règles que sur la manière dont les conteneurs sont accédés. Plusieurs défis scientifiques et techniques se sont présentés. Premièrement, la base de code Linux est particulièrement grande, avec quinze millions de lignes de code réparties dans trente-mille fichiers. La première contribution de cette thèse a été un plugin pour le compilateur GCC permettant d'extraire et visualiser aisément les graphes de flot de contrôle des fonctions du noyau. Ensuite, le framework des Linux Security Modules qui est utilisé pour implémenter les moniteurs de flux d'information que nous avons étudiés (Laminar [1], KBlare [2] et Weir [3]) a été conçu en premier lieu pour le contrôle d'accès, et non de flux. La question se pose donc de savoir si le framework est implémenté de telle sorte à permettre la capture de tous les flux produits par les appels système. Nous avons créé et implémenté une analyse statique permettant de répondre à ce problème. Cette analyse statique est implémenté en tant que plugin GCC et nous a permis d'améliorer le framework LSM pour capturer tous les flux. Enfin, nous avons constaté que les moniteurs de flux actuels n'étaient pas résistants aux conditions de concurrence entre les flux et ne pouvaient pas traiter certains canaux ouverts tels que les projections de fichiers en mémoire et les segments de mémoire partagée entre processus. Nous avons implémenté Rfblare, un nouvel algorithme de suivi de flux, pour KBlare, dont nous avons prouvé la correction avec Coq. Nous avons ainsi montré que LSM pouvait être utilisé avec succès pour implémenter le contrôle de flux d'information, et que seules les méthodes formelles, permettant la mise en œuvre de méthodologie, d'analyses ou d'outils réutilisables, permettaient de s'attaquer à la complexité et aux rapides évolutions du noyau Linux<br>We look forward to improving the implementations of information flow control mechanisms in Linux Operating Systems. Information Flow Control aims at monitoring how information disseminates in a system once it is out of its original container, unlike access control which can merely apply rule on how the containers are accessed. We met several scientific and technical challenges. First of all, the Linux codebase is big, over fifteen millions lines of code spread over thirty three thousand files. The first contribution of this thesis is a plugin for the GCC compiler able to extract and let a user easily visualize the control flow graphs of the Linux kernel functions. Secondly, the Linux Security Modules framework which is used to implement the information flow trackers we have reviewed (Laminar, KBlare, and Weir) was designed in the first place to implement access control, rather than information flow control. One issue is thus left open: is the framework implemented in such a way that all flows generated by system calls can be captured? We have created and implemented static analysis to address this problem and proved its correction with the Coq proof assistant system. This analysis is implemented as a GCC plugin and have allowed us to improve the LSM framework in order to capture all flows. Finally, we have noted that current information flow trackers are vulnerable to race conditions between flows and are unable to cover some overt channels of information such as files mapping to memory and shared memory segments between processes. We have implemented Rfblare, a new algorithm of flow tracking, for KBlare. The correction of this algorithm has been proved with Coq. We have showed that LSM can be used successfully to implement information flow control, and that only formal methods, leading to reusable methodology, analysis, tools, etc., are a match for the complexity and the fast-paced evolution of the Linux kernel
APA, Harvard, Vancouver, ISO, and other styles
4

Deligné, Eddy. "Hyperviseur de protection d'exécutables : étude, développement et discussion." Palaiseau, Ecole polytechnique, 2014. http://www.theses.fr/2014EPXX0072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Royon, Yvan Ubéda Stéphane Frénot Stéphane. "Environnements d'exécution pour passerelles domestiques." Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=royon.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Royon, Yvan. "Environnements d'exécution pour passerelles domestiques." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00271481.

Full text
Abstract:
Le marché des passerelles domestiques évolue vers un nouveau modèle économique, où de multiples acteurs sont amenés à fournir des services vers nos domiciles : multimédia à la demande, domotique, télésécurité, aide aux personnes âgées ou handicapées\ldots<br /><br />Ce nouveau modèle économique a des répercussions techniques sur les passerelles domestiques. Ces équipements à ressources limitées doivent alors supporter le déploiement, l'exécution et la gestion de plusieurs éléments logiciels (modules), en provenance de fournisseurs différents. Ceci se traduit par des besoins en terme d'isolation d'exécution locale, de gestion à distance, d'infrastructure de déploiement et de modèle de programmation.<br /><br />Dans ces travaux, nous proposons de répondre à ces quatre familles de besoins en nous appuyant sur deux types d'environnements d'exécution : Java/OSGi et C/Linux.<br /><br />Nous proposons de combler les fonctionnalités manquantes à ces deux environnements, afin d'obtenir un système conforme au modèle multi-services.
APA, Harvard, Vancouver, ISO, and other styles
7

Guo, Lisong. "Boost the Reliability of the Linux Kernel : Debugging kernel oopses." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066378.

Full text
Abstract:
Lorsqu'une erreur survient dans le noyau Linux, celui-ci émet un rapport d’erreur appelé "kernel oops" contenant le contexte d’exécution de cette erreur. Les kernel oops décrivent des erreurs réelles de Linux, permettent de classer les efforts de débogage par ordre de priorité et de motiver la conception d’outils permettant d'améliorer la fiabilité du code de Linux. Néanmoins, les informations contenues dans un kernel oops n’ont de sens que si elles sont représentatives et qu'elles peuvent être interprétées correctement. Dans cette thèse, nous étudions une collection de kernel oops provenant d'un dépôt maintenu par Red Hat sur une période de huit mois. Nous considérons l’ensemble des caractéristiques de ces données, dans quelle mesure ces données reflètent d’autres informations à propos de Linux et l’interprétation des caractéristiques pouvant être pertinentes pour la fiabilité de Linux. Nous constatons que ces données sont bien corrélées à d’autres informations à propos de Linux, cependant, elles souffrent parfois de problèmes de duplication et de manque d’informations. Nous identifions également quelques pièges potentiels lors de l'étude des fonctionnalités, telles que les causes d'erreurs fréquentes et les causes d'applications défaillant fréquemment. En outre, un kernel oops fournit des informations précieuses et de première main pour un mainteneur du noyau Linux lui permettant d'effectuer le débogage post-mortem car il enregistre l’état du noyau Linux au moment du crash. Cependant, le débogage sur la seule base des informations contenues dans un kernel oops est difficile. Pour aider les développeurs avec le débogage, nous avons conçu une solution afin d'obtenir la ligne fautive à partir d’un kernel oops, i.e., la ligne du code source qui provoque l'erreur. Pour cela, nous proposons un nouvel algorithme basé sur la correspondance de séquences approximative utilisé dans le domaine de bioinformatique. Cet algorithme permet de localiser automatiquement la ligne fautive en se basant sur le code machine à proximité de celle-ci et inclus dans un kernel oops. Notre algorithme atteint 92% de précision comparé à 26 % pour l’approche traditionnelle utilisant le débogueur gdb. Nous avons intégré notre solution dans un outil nommé OOPSA qui peut ainsi alléger le fardeau pour les développeurs lors du débogage de kernel oops<br>When a failure occurs in the Linux kernel, the kernel emits an error report called “kernel oops”, summarizing the execution context of the failure. Kernel oopses describe real Linux errors, and thus can help prioritize debugging efforts and motivate the design of tools to improve the reliability of Linux code. Nevertheless, the information is only meaningful if it is representative and can be interpreted correctly. In this thesis, we study a collection of kernel oopses over a period of 8 months from a repository that is maintained by Red Hat. We consider the overall features of the data, the degree to which the data reflects other information about Linux, and the interpretation of features that may be relevant to reliability. We find that the data correlates well with other information about Linux, but that it suffers from duplicate and missing information. We furthermore identify some potential pitfalls in studying features such as the sources of common faults and common failing applications. Furthermore, a kernel oops provides valuable first-hand information for a Linux kernel maintainer to conduct postmortem debugging, since it logs the status of the Linux kernel at the time of a crash. However, debugging based on only the information in a kernel oops is difficult. To help developers with debugging, we devised a solution to derive the offending line from a kernel oops, i.e., the line of source code that incurs the crash. For this, we propose a novel algorithm based on approximate sequence matching, as used in bioinformatics, to automatically pinpoint the offending line based on information about nearby machine-code instructions, as found in a kernel oops. Our algorithm achieves 92% accuracy compared to 26% for the traditional approach of using only the oops instruction pointer. We integrated the solution into a tool named OOPSA, which would relieve some burden for the developers with the kernel oops debugging
APA, Harvard, Vancouver, ISO, and other styles
8

Jarbaoui, Mohamed Tahar. "Sûreté de fonctionnement de systèmes informatiques : étalonnage et représentativité des fautes." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT008H.

Full text
Abstract:
Les travaux présentés dans ce mémoire possèdent un double objectif. Nous nous intéressons, dans un premier temps, à la définition d'un cadre conceptuel d'étalonnage de la sûreté de fonctionnement des systèmes informatiques, basé sur les techniques d'évaluation analytique et expérimentale de la sûreté de fonctionnement. Le but d'un étalon de sûreté de fonctionnement est de fournir un moyen générique pour la caractérisation du comportement des systèmes informatiques en présence de fautes, permettant ainsi la quantification de mesures de sûreté de fonctionnement. Le second objectif de ce mémoire est d'illustrer l'application de ce cadre conceptuel sur deux cas particuliers. Le premier cas d'application est relatif à la modélisation analytique de systèmes complexes tolérants aux fautes. Nous montrons par cet exemple le moyen d'identifier les paramètres significatifs d'un modèle analytique nécessitant d'être déterminés expérimentalement. Le deuxième exemple est relatif à l'étalonnage de la sûreté de fonctionnement d'un système opératoire. Ces étalons sont purement expérimentaux et se basent énormément sur l'injection de fautes. Nous mettons l'accent dans cette partie de la thèse sur l'étude d'une part de l'équivalence entre les fautes injectées et d'autre part de la représentativité des fautes injectées par rapport aux fautes réelles dans les systèmes opératoires.
APA, Harvard, Vancouver, ISO, and other styles
9

Hiet, Guillaume. "Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'information au sein du système d'exploitation et des applications : mise en oeuvre sous Linux pour les programmes Java." Rennes 1, 2008. http://www.theses.fr/2008REN1S171.

Full text
Abstract:
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. L’approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous souhaitons surveiller un système comprenant un OS et des logiciels COTS dont des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture ainsi que les résultats de nos expérimentations<br>Computer security is now a crucial issue. We are convinced that policy-based intrusion detection is a promising approach. This kind of detection is only based on both a model of the system state evolution and a model of the security policy. We aim at using policy-based intrusion detection systems (IDS) to monitor a system with OS running COTS software and web applications. We propose a detection model that can monitor information flow between information containers. We define a generic IDS architecture implementing the proposed model. This architecture is based on the collaboration between several IDS monitoring information flows at different granularity levels. We present an implementation of this architecture and the results of the experiments we realized on realistic Java applications
APA, Harvard, Vancouver, ISO, and other styles
10

Millon, Etienne. "Analyse de sécurité de logiciels système par typage statique." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066120.

Full text
Abstract:
Les noyaux de systèmes d'exploitation manipulent des données fournies par les programmes utilisateur via les appels système. Si elles sont manipulées sans prendre une attention particulière, une faille de sécurité connue sous le nom de Confused Deputy Problem peut amener à des fuites de données confidentielles ou l'élévation de privilèges d'un attaquant. Le but de cette thèse est d'utiliser des techniques de typage statique afin de détecter les manipulations dangereuses de pointeurs contrôlés par l'espace utilisateur. La plupart des systèmes d'exploitation sont écrits dans le langage C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa sémantique opérationnelle et un premier système de types sont décrits, et les propriétés classiques de sûreté du typage sont établies. La manipulation des états mémoire est formalisée sous la forme de lentilles bidirectionnelles, qui permettent d'encoder les mises à jour partielles des états et variables. Un première analyse sur ce langage est décrite, permettant de distinguer les entiers utilisés comme bitmasks, qui sont une source de bugs dans les programmes C<br>Operating system kernels need to manipulate data that comes from user programs through system calls. If it is done in an incautious manner, a security vulnerability known as the Confused Deputy Problem can lead to information disclosure or privilege escalation. The goal of this thesis is to use static typing to detect the dangerous uses of pointers that are controlled by userspace. Most operating systems are written in the C language. We start by isolating Safespeak, a safe subset of it. Its operational semantics as well as a type system are described, and the classic properties of type safety are established. Memory states are manipulated using bidirectional lenses, which can encode partial updates to states and variables. A first analysis is described, that identifies integers used as bitmasks, which are a common source of bugs in C programs. Then, we add to Safespeak the notion of pointers coming from userspace. This breaks type safety, but it is possible to get it back by assigning a different type to the pointers that are controlled by userspace. This distinction forces their dereferencing to be done in a controlled fashion. This technique makes it possible to detect two bugs in the Linux kernel: the first one is in a video driver for an AMD video card, and the second one in the ptrace system call for the Blackfin architecture
APA, Harvard, Vancouver, ISO, and other styles
11

Maltais, Steeve. "Étude des préoccupations des techniciens en informatique dans le cadre du passage au système d'exploitation GNU/LINUX en milieu scolaire." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/24005/24005.pdf.

Full text
Abstract:
Cette étude porte sur les préoccupations de techniciens en milieu scolaire dans le cadre de l'intégration d'un nouveau système d'exploitation. Elle vise les objectifs suivants : 1) recenser les préoccupations des destinataires d'un changement dans le cadre du passage au système d'exploitation GNU/Linux et 2) savoir en quoi, selon eux, ces préoccupations risquent d’affecter leur façon de travailler avec un nouveau système d'exploitation. Quatre techniciens vivant un projet d'expérimentation visant à implanter le système d'exploitation GNU/Linux dans une commission scolaire furent interviewés. Les entrevues visant particulièrement à faire ressortir les craintes, les peurs, les préoccupations et les comportements de « non-changement ». Les résultats de l'étude ont démontrés que les techniciens vivant le projet d'expérimentation vivaient des préoccupations dans 3 phases de préoccupations sur une échelle de sept, soit les préoccupations centrées sur le destinataire, l'organisation et l'expérimentation. Malgré de nombreuses préoccupations les techniciens disent qu’ils sont prêts à aller de l'avant avec GNU/Linux à condition de respecter certaines règles, notamment en ce qui a trait au type d'installation du système d'exploitation GNU/Linux.<br>This study delineates the concerns of computer technicians pertaining to the integration of a new operating system (GNU/Linux). The study has the following aims: 1) to quantify and qualify the technicians concerns ; and 2) to examine whether or how these concerns might affect the ways in which recipients work within a new operating system. Four technicians undergoing an integration of the GNU/Linux operating system were interviewed. Interview questions focused technicians fears and concerns about the operating system as well as any elements that may – or may not – lead techniciens to not effectuate a system change. The results of the study show that the technicians had concerns in 3 particular phases (out of a potential scale of seven phases). Their concerns primarily revolved around the recipient, the organization and the experimentation itself. The study also shows that even if notable concerns are present, the technicians are still willing to implement the GNU/Linux operating system. Appeals to certain rules and what type of installation ought to occur (with respect to GNU/Linux) figured prominently.
APA, Harvard, Vancouver, ISO, and other styles
12

Grassineau, Benjamin Liu Michel. "La dynamique des réseaux coopératifs l'exemple des logiciels libres et du projet d'encyclopédie libre et ouverte Wikipédia. /." [S.l.] : [s.n.], 2009. http://basepub.dauphine.fr/xmlui/handle/123456789/1170.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Garcia-Fernandez, Thibault. "Conception et développement de composants pour logiciel temps réel embarqués." Nantes, 2005. http://www.theses.fr/2005NANT2066.

Full text
Abstract:
Le travail présenté dans cette thèse concerne la conception et la validation d'un système d'exploitation temps-réel baptisé CLEOPATRE ( Composants Logiciels sur Etagères Ouverts Pour Applications Temps-Réel Embarquées). Ce système d'exploitation a la particularité de se présenter sous forme de composants à code source ouvert, interchangeables et sélectionnables en fonction du profil de l'application visée. L'objectif étant aussi de participer à l'évolution d'un standard communautaire ouvert, Linux, cette bibliothèque se présente comme un patch annexé à Linux via RTAI. Elle intégre des fonctionnalités innovantes principalement en matière de tolérance aux fautes, d'ordonnancement temps-réel et de gestion des ressources critiques, et permet de prendre en charge l'exécution de tâches périodiques et non-périodiques, de tâches critiques et non critiques de façon conjointe. La phase de développement qui a notamment utilisé la Programmation Orientée Aspect s'est poursuivie par une phase de validation pour évaluer les performances temporelles et tester l'applicabilité et l'interopérabilité des composants<br>The work presented in this thesis is relative to the design and the validation of a real-time operating system, namely CLEOPATRE ( Composants Logiciels sur Etagères Ouverts Pour Applications Temps-Réel Embarquées). This operating system has the main characteristics to be presented in the form of free open source components which are interchangeable and selectable according to the profile of the concerned application. The objective being also to take part in the evolution of Linux, the most famous open source operating system, this library has been designed as a patch attached to Linux via RTAI. It integrates innovating functionalities mainly as regards timing fault- tolerance, real-time scheduling and resource management, able to jointly cope with periodic and aperiodic tasks, critical and non-critical tasks. The development phase that, in particular uses the Aspect Oriented Programming, has continued by a validation phase to evaluate the temporal performances and test the applicability and inter-operability of the components
APA, Harvard, Vancouver, ISO, and other styles
14

Bazm, Mohammad Mahdi. "Unified isolation architecture and mechanisms against side channel attacks for decentralized cloud infrastructures." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4042.

Full text
Abstract:
Depuis les travaux de Ristenpart [Ristenpart et al., 2009], les attaques par canaux auxiliaires se sont imposées comme un enjeu sécurité important pour les environnements virtualises, avec une amélioration rapide des techniques d’attaque, et de nombreux travaux de recherche pour les détecter et s’en prémunir. Ces attaques exploitent le partage de ressources matérielles comme les différents niveaux de cache processeur entre des locataires multiples en utilisant la couche de virtualisation. Il devient alors possible d’en contourner les mécanismes de sécurité entre différentes instances virtualisées, par exemple pour obtenir des informations sensibles comme des clés cryptographiques. L’analyse des défis d’isolation et des formes d’attaques par canaux auxiliaires basées sur le cache dans les infrastructures virtualisées met en évidence différentes approches pour les détecter ou les contrer, entre machines virtuelles ou conteneurs Linux. Ces approches se distinguent selon la couche logicielle ou seront appliquées les contre-mesures, applicative, système ou matérielle. La détection reste principalement effectuée au niveau de la couche système ou de virtualisation, ce niveau permettant simplement d’analyser le comportement des instances virtualisées. De nouvelles formes distribuées d’attaques ont aussi pu être mises en évidence. Pour la détection, nous explorons une approche combinant des compteurs de performance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la configuration du système plus dynamique et plus difficilement attaquable, a différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invite ou dans l’hyperviseur, avec de plus un surcoût très faible en performance. Nous explorons enfin l’utilisation de techniques d’exécution matérielle a base d’enclaves comme Intel SGX (Software Guard Extensions) pour assurer une exécution repartie de confiance de conteneurs Linux sur des couches logicielles qui ne le sont pas nécessairement. Ceci s’est traduit par la proposition d’un modèle d’exécution repartie sur infrastructure Fog pour conteneurs Linux. Il s’agit d’un premier pas vers une infrastructure repartie sécurisée Fog illustrant le potentiel de telles technologies<br>Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannelattacks is raising in virtualized environments such as cloud computing infrastructuresbecause of rapid improvements in the attack techniques. Therefore, the mitigationand the detection of such attacks have been getting more attention in these environments,and consequently have been the subject of intense research works.These attacks exploit for instance sharing of hardware resources such as the processorin virtualized environments. Moreover, the resources are often shared between differentusers at very low-level through the virtualization layer. As a result, such sharing allowsbypassing security mechanisms implemented at virtualization layer through such a leakysharing. Cache levels of the processor are the resources which are shared between instances,and play as an information disclosure channel. Side-channel attacks thus use this leakychannel to obtain sensitive information such as cryptographic keys.Different research works are already exist on the detection/mitigation of these attackin information systems. Mitigation techniques of cache-based side-channel attacks aremainly divided into three classes according to different layer of application in cloud infrastructures(i.e., application, system, and hardware). The detection is essentially done atOS/hypervisor layer because of possibility of analyzing virtualized instances behavior atboth layers.In this thesis, we first provide a survey on the isolation challenge and on the cachebasedside-channel attacks in cloud computing infrastructures. We then present differentapproaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks.Regarding the detection of cache-based side-channel attacks, we achieve that by leveragingHardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT)with anomaly detection approaches to identify a malicious virtual machine or a Linux container.Our experimental results show a high detection rate.We then leverage an approach based on Moving Target Defense (MTD) theory to interrupta cache-based side-channel attack between two Linux containers. MTD allows us tomake the configuration of system more dynamic and consequently more harder to attackby an adversary, by using shuffling at different level of system and cloud. Our approachdoes not need to carrying modification neither into the guest OS or the hypervisor. Experimentalresults show that our approach imposes very low performance overhead.We also discuss the challenge of isolated execution on remote hosts, different scenariosto secure execution of Linux containers on remote hosts and different trusted executiontechnologies for cloud computing environments. Finally, we propose a secure model fordistributed computing through using Linux containers secured by Intel SGX, to performtrusted execution on untrusted Fog computing infrastructures
APA, Harvard, Vancouver, ISO, and other styles
15

Grassineau, Benjamin. "La dynamique des réseaux coopératifs : l’exemple des logiciels libres et du projet d’encyclopédie libre et ouverte Wikipédia." Phd thesis, Paris 9, 2009. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2009PA090009.

Full text
Abstract:
Les pratiques organisationnelles et sociales non-marchandes et non-hiérarchiques liées aux nouvelles technologies de l'information et de la communication suscitent aujourd'hui de nombreuses réactions et controverses. Certains acteurs et chercheurs en contestent l'existence, d'autres affirment qu'il s'agit d'un phénomène minoritaire ou non durable, d'autres enfin, les cantonnent à la sphère virtuelle. S'inscrivant dans ces débats, ce travail analyse les différentes approches théoriques qui les sous-tendent, et les confronte à une observation empirique du réseau coopératif des logiciels libres et du projet d'encyclopédie libre et ouverte Wikipédia, en les replaçant dans le contexte idéologique propre à l'activité informatique. En développant un cadre conceptuel adéquat pour l'étude de ces entités sociales qui s'appuie sur l'interactionnisme symbolique et la sociologie critique d'Ivan Illich, cette réflexion dévoile la spécificité organisationnelle, économique et sociale de ces nouvelles pratiques, et expose ce qui a favorisé leur développement et leur croissance au cours de ces trois dernières décennies. L'accent est tout particulièrement mis sur l'intégration des facteurs culturels et sur la compréhension des mécanismes qui favorisent l'essor et l'expansion de ces nouvelles pratiques dans d'autres activités. Au final, cette réflexion rejoint un des questionnements fondamentaux de la société contemporaine, à savoir, celui posé par le développement de l'économie non-marchande et non-hiérarchique et par la déprofessionnalisation des activités immatérielles<br>Organizational and social non-market and non-hierarchical practices related to new information technologies and communication, caused many reactions and controversy. Some actors and thinkers their existence, others say it is a minority or unsustainable phenomenon, and others confined it exclusively to the virtual sphere. As part of these discussions, this thesis tries to make the synthese of the various theoretical approaches to these new practices and to confront them with a rigorous empirical observation of the cooperative network of free software and the free and open project of encyclopaedia Wikipedia. In developing a conceptual framework suitable to study the social entities, built on the symbolic interactionism and sociology critic Ivan Illich, this work show the specific organizational, economic and social form of these new practices, and understand what was able to promote their development and growth over the past three decades. We especially insist on cultural factors, rather than technical factors. Finally, the thesis attempts to reflect on what could eventually promote the development and expansion of these new practices. We are joining here a questioning of society deeper, and without answer : the challenges and uncertainties posed by the development of non-market economy and non-hierarchical
APA, Harvard, Vancouver, ISO, and other styles
16

Millon, Etienne. "Analyse de sécurité de logiciels système par typage statique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01067475.

Full text
Abstract:
Les noyaux de systèmes d'exploitation manipulent des données fournies par les programmes utilisateur via les appels système. Si elles sont manipulées sans prendre une attention particulière, une faille de sécurité connue sous le nom de Confused Deputy Problem peut amener à des fuites de données confidentielles ou l'élévation de privilèges d'un attaquant. Le but de cette thèse est d'utiliser des techniques de typage statique afin de détecter les manipulations dangereuses de pointeurs contrôlés par l'espace utilisateur. La plupart des systèmes d'exploitation sont écrits dans le langage C. On commence par en isoler un sous-langage sûr nommé Safespeak. Sa sémantique opérationnelle et un premier système de types sont décrits, et les propriétés classiques de sûreté du typage sont établies. La manipulation des états mémoire est formalisée sous la forme de lentilles bidirectionnelles, qui permettent d'encoder les mises à jour partielles des états et variables. Un première analyse sur ce langage est décrite, permettant de distinguer les entiers utilisés comme bitmasks, qui sont une source de bugs dans les programmes C.
APA, Harvard, Vancouver, ISO, and other styles
17

Guo, Lisong. "Boost the Reliability of the Linux Kernel : Debugging kernel oopses." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066378/document.

Full text
Abstract:
Lorsqu'une erreur survient dans le noyau Linux, celui-ci émet un rapport d’erreur appelé "kernel oops" contenant le contexte d’exécution de cette erreur. Les kernel oops décrivent des erreurs réelles de Linux, permettent de classer les efforts de débogage par ordre de priorité et de motiver la conception d’outils permettant d'améliorer la fiabilité du code de Linux. Néanmoins, les informations contenues dans un kernel oops n’ont de sens que si elles sont représentatives et qu'elles peuvent être interprétées correctement. Dans cette thèse, nous étudions une collection de kernel oops provenant d'un dépôt maintenu par Red Hat sur une période de huit mois. Nous considérons l’ensemble des caractéristiques de ces données, dans quelle mesure ces données reflètent d’autres informations à propos de Linux et l’interprétation des caractéristiques pouvant être pertinentes pour la fiabilité de Linux. Nous constatons que ces données sont bien corrélées à d’autres informations à propos de Linux, cependant, elles souffrent parfois de problèmes de duplication et de manque d’informations. Nous identifions également quelques pièges potentiels lors de l'étude des fonctionnalités, telles que les causes d'erreurs fréquentes et les causes d'applications défaillant fréquemment. En outre, un kernel oops fournit des informations précieuses et de première main pour un mainteneur du noyau Linux lui permettant d'effectuer le débogage post-mortem car il enregistre l’état du noyau Linux au moment du crash. Cependant, le débogage sur la seule base des informations contenues dans un kernel oops est difficile. Pour aider les développeurs avec le débogage, nous avons conçu une solution afin d'obtenir la ligne fautive à partir d’un kernel oops, i.e., la ligne du code source qui provoque l'erreur. Pour cela, nous proposons un nouvel algorithme basé sur la correspondance de séquences approximative utilisé dans le domaine de bioinformatique. Cet algorithme permet de localiser automatiquement la ligne fautive en se basant sur le code machine à proximité de celle-ci et inclus dans un kernel oops. Notre algorithme atteint 92% de précision comparé à 26 % pour l’approche traditionnelle utilisant le débogueur gdb. Nous avons intégré notre solution dans un outil nommé OOPSA qui peut ainsi alléger le fardeau pour les développeurs lors du débogage de kernel oops<br>When a failure occurs in the Linux kernel, the kernel emits an error report called “kernel oops”, summarizing the execution context of the failure. Kernel oopses describe real Linux errors, and thus can help prioritize debugging efforts and motivate the design of tools to improve the reliability of Linux code. Nevertheless, the information is only meaningful if it is representative and can be interpreted correctly. In this thesis, we study a collection of kernel oopses over a period of 8 months from a repository that is maintained by Red Hat. We consider the overall features of the data, the degree to which the data reflects other information about Linux, and the interpretation of features that may be relevant to reliability. We find that the data correlates well with other information about Linux, but that it suffers from duplicate and missing information. We furthermore identify some potential pitfalls in studying features such as the sources of common faults and common failing applications. Furthermore, a kernel oops provides valuable first-hand information for a Linux kernel maintainer to conduct postmortem debugging, since it logs the status of the Linux kernel at the time of a crash. However, debugging based on only the information in a kernel oops is difficult. To help developers with debugging, we devised a solution to derive the offending line from a kernel oops, i.e., the line of source code that incurs the crash. For this, we propose a novel algorithm based on approximate sequence matching, as used in bioinformatics, to automatically pinpoint the offending line based on information about nearby machine-code instructions, as found in a kernel oops. Our algorithm achieves 92% accuracy compared to 26% for the traditional approach of using only the oops instruction pointer. We integrated the solution into a tool named OOPSA, which would relieve some burden for the developers with the kernel oops debugging
APA, Harvard, Vancouver, ISO, and other styles
18

Carver, Damien. "Advanced consolidation for dynamic containers." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS513.

Full text
Abstract:
La virtualisation des ressources informatiques a donné naissance au Cloud Computing. Plus récemment, la virtualisation légère à base de conteneur est devenu de plus en plus populaire. En effet, les conteneurs offrent une isolation des performances comparable à celle des machines virtuelles, mais promettent une meilleur consolidation des ressources grâce à leur flexibilité. Dans cette thèse nous mettons en lumière des pertes d'isolation de performance supposé garanti à un conteneur actif. Ces pertes apparaissent pendant la consolidation, c'est-à-dire, lorsque la mémoire inutilisée d'un conteneur inactif est transférée vers un nouveau conteneur qui démarre. Or, dans un environnement non virtualisé, ce scénario de consolidation mémoire n'aboutit pas à une chute de performances chez les processus les plus actifs. Nous proposons donc, dans un premier temps, de mesurer l'activité mémoire des conteneurs à l'aide de métriques présentes dans l'état de l'art. Puis, pour garantir l'isolation des conteneurs les plus actifs lors des consolidations mémoire, nous modifions le comportement du noyau Linux afin de récupérer en priorité la mémoire des conteneurs définis comme étant les plus inactifs par la métrique. Dans un deuxième temps, nous proposons une autre méthode d'estimation de l'activité mémoire des conteneurs qui repose sur une horloge globale d'événements mémoire. Cette méthode est plus réactive que la précédente car elle cherche à protéger les conteneurs dont l'activité mémoire est la plus récente<br>The virtualization of computing resources has given rise to cloud computing. More recently, container-based lightweight virtualization has become increasingly popular. Containers offer performance isolation comparable to that of virtual machines, but promise better resource consolidation due to their flexibility. In this thesis we highlight performance isolation losses assumed to be guaranteed to an active container. These losses occur during consolidation, i.e. when the unused memory of an inactive container is transferred to a new container that starts. However, in a non-virtualized environment, this memory consolidation scenario does not result in a drop in performance among the most active processes. We therefore propose, as a first step, to measure the memory activity of containers using state-of-the-art metrics. Then, to ensure the isolation of the most active containers during memory consolidations, we modify the behavior of the Linux kernel in order to reclaim the memory of the containers defined as being the most inactive by the metric. In a second step, we propose another method for estimating the memory activity of containers based on a global clock of memory events. This method is more reactive than the previous one because it seeks to protect containers with the most recent memory activity
APA, Harvard, Vancouver, ISO, and other styles
19

Bissyande, Tegawende. "Contributions for improving debugging of kernel-level services in a monolithic operating system." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821893.

Full text
Abstract:
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dus aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
APA, Harvard, Vancouver, ISO, and other styles
20

Lissy, Alexandre. "Utilisation de méthodes formelles pour garantir des propriétés de logiciels au sein d'une distribution : exemple du noyau Linux." Thesis, Tours, 2014. http://www.theses.fr/2014TOUR4019/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons à intégrer dans la distribution Linux produite par Mandriva une assurance qualité permettant de proposer des garanties de propriétés sur le code exécuté. Le processus de création d’une distribution implique l’utilisation de logiciels de provenances diverses pour proposer un assemblage cohérent et présentant une valeur ajoutée pour l’utilisateur. Ceci engendre une moindre maîtrise potentielle sur le code. Un audit manuel permet de s’assurer que celui-Ci présente de bonnes propriétés, par exemple, en matière de sécurité. Le nombre croissant de composants à intégrer, et la croissance de la quantité de code de chacun amènent à avoir besoin d’outils pour permettre une assurance qualité. Après une étude de la distribution nous choisissons de nous concentrer sur un paquet critique, le noyau Linux : nous proposons un état de l’art des méthodes de vérifications appliquées à ce contexte particulier, et identifions le besoin d’améliorer la compréhension de la structure du code source, la question de l’explosion combinatoire et le manque d’intégration des outils d’analyse de l’état de l’art. Pour répondre à ces besoins nous proposons une représentation du code source sous la forme d’un graphe, et l’utilisons pour aider à la documentation et à la compréhension de l’architecture du code. Des méthodes de détection de communautés sont évaluées sur ce cas pour répondre au besoin de l’explosion combinatoire. Enfin nous proposons une architecture intégrée dans le système de construction de la distribution permettant d’intégrer des outils d’analyse et de vérification de code<br>In this thesis we are interested in integrating to the Linux distribution produced by Mandriva quality assurance level that allows ensuring user-Defined properties on the source code used. The core work of a distribution and its producer is to create a meaningful aggregate from software available. Those softwares are free and open source, hence it is possible to adapt it to improve end user’s experience. Hence, there is less control over the source code. Manual audit can of course be used to make sure it has good properties. Examples of such properties are often referring to security, but one could think of others. However, more and more software are getting integrated into distributions and each is showing an increase in source code volume: tools are needed to make quality assurance achievable. We start by providing a study of the distribution itself to document the current status. We use it to select some packages that we consider critical, and for which we can improve things with the condition that packages which are similar enough to the rest of the distribution will be considered first. This leads us to concentrating on the Linux kernel: we provide a state of the art overview of code verification applied to this piece of the distribution. We identify a need for a better understanding of the structure of the source code. To address those needs we propose to use a graph as a representation of the source code and use it to help document and understand its structure. Specifically we study applying some state of the art community detection algorithm to help handle the combinatory explosion. We also propose a distribution’s build system-Integrated architecture for executing, collecting and handling the analysis of data produced by verifications tools
APA, Harvard, Vancouver, ISO, and other styles
21

Visa, Codrut Ion Alin. "Commande non linéaire et observateurs : application à la MRV en grande vitesse." Metz, 2004. http://www.theses.fr/2004METZ026S.

Full text
Abstract:
Ce travail concerne la commande en boucle fermée d'une machine à réluctance variable (MRV) destinée à l'usinage à grande vitesse. Le principe de fonctionnement d'une MRV 6/2 et sa modélisation sont d'abord présentés. Le développement d'une commande à la fois performante et robuste dépend de la connaissance de paramètres du modèle de la MRV. L'identification sans capteur de position des paramètres de la MRV a permis d'obtenir la caractéristique électromagnétique et les paramètres mécaniques. Des phénomènes de frottement hydrodynamiques et aérodynamiques ont été mis en évidence. Le caractère fortement non linéaire d'une MRV rend son contrôle difficile. La commande en boucle fermée de la MRV à basse vitesse a montré l'intérêt de l'emploi d'une commande non linéaire linéarisante par retour d'état. Toutefois à grande vitesse, plusieurs phénomènes spécifiques limitent les performances de la MRV en boucle fermée. Ces phénomènes sont analysés à travers les résultats des simulations de commandes non linéaires linéarisante en tension et en courant. En présence d'un capteur de position un observateur à entrée inconnue est développé et expérimenté. Afin de palier le manque de capteur performant à grande vitesse, nous avons développé un observateur non linéaire d'ordre réduit. Enfin, un système de commande a été réalisé pour expérimenter les algorithmes de commande. Le système d'exploitation Linux temps réel (RTAI) combiné avec des cartes d'acquisition entrées-sorties nous a permis d'obtenir un fonctionnement avec une période d'échantillonnage de 10s. L'interface graphique et l'acquisition des données sont gérées par des processeurs distincts<br>This work deals with the closed loop control of a switched reluctance motor (SRM) used for high speed machining. The principle of operation of a 6/2 SRM and its model are firstly presented. The design of a performant and robust control law depends on the knowledge of the SRM model parameters. Sensorless position parameters identification has allowed to obtain the electromagnetic characteristic and the mechanical parameters. Hydrodynamic and aerodynamic friction phenomena have been highlighted. The highly nonlinear character of the SRM makes the control difficult. The closed loop control of the SRM running at low speed showed the interest of using the feedback linearizing control technique. However at high speed, several specific problems limit the drive performances in the closed loop. The main aspects of a high speed running SRM have been analysed through the results of the simulations of feedback linearizing voltage and current control law. When the position information is available, an unknown input observer has been developed and experimented. In order to tackle the lack of a performant position sensor at high speed, a nonlinear reduced order observer has been studied. Finally, a real time control system has been realized in order to test the control laws. Real time Linux (RTAI) operating system combined with the data acquisition boards have allowed to obtain 10s sampling frequency behavior of the control system. The graphical interface and data acquisition are executed by distinct processors
APA, Harvard, Vancouver, ISO, and other styles
22

Foucher, Clément. "Méthodologie de conception pour la virtualisation et le déploiement d'applications parallèles sur plateforme reconfigurable matériellement." Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00777511.

Full text
Abstract:
Les applications auto-adaptatives, dont le comportement évolue en fonction de l'environnement, sont un élément clé des systèmes de demain. L'utilisation de matériel reconfigurable, combiné à la parallélisation des unités de calcul, permettent d'envisager de nouveaux niveaux de performances pour ces mêmes applications. L'objectif de cette thèse est de mettre en place un ensemble d'outils permettant la description et le déploiement d'applications parallèles auto-adaptatives. Nous proposons à la fois un modèle d'application parallèle et une architecture de plateforme reconfigurable destinée au déploiement des applications conçues en utilisant ce modèle. Notre modèle d'applications sépare le contrôle du calcul en isolant ce dernier en différents noyaux virtuels. Associée à une représentation du contrôle indépendante de la plateforme, la structure de l'application est donc totalement portable. Indépendamment de celle-ci, les noyaux de calcul peuvent être distribués selon plusieurs implémentations, selon la plateforme, mais également pour proposer différents niveaux de performances. Une couche de virtualisation permet de faire le lien entre la partie contrôle et les noyaux, en traduisant les ordres génériques en actions adaptées à l'implémentation. Concernant la plateforme, nous proposons une architecture permettant l'intégration de ressources de calcul logicielles et matérielles, pouvant être implémentées tant statiquement qu'en utilisant du matériel reconfigurable. Cette architecture parallèle, inspirée du modèle des supercalculateurs, doit permettre d'utiliser tout type d'unités d'exécution et de matériel reconfigurable comme base matérielle pour la plateforme.
APA, Harvard, Vancouver, ISO, and other styles
23

Karam, Louis. "Pseu : prototype d'un système d'exploitation universel." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX32027.

Full text
Abstract:
Les ordinateurs evoluent tres rapidement, a tel point que les concepts et les outils qui avaient ete definis pour ce qui etait, il y a peu de temps, des machines de dimension moyenne ou grande, sont maintenant appliquee aux micro-ordinateurs. C'est evident le cas des systemes d'exploitation qui peuvent paraitre comme un obstacle lorsqu'on veut utiliser l'ordinateur a un niveau autre que le langage machine. Le premier objectif de cette these est de fournir une methode logique simple, eprouvee d'un prototype de systeme d'exploitation universel. Le deuxieme objectif de cette these est de permettre aux gestionnaires qui ne possedent pas une connaissance approndie des systemes d'exploitation, de demeurer les maitres d'oeuvre de l'operation, autonomes face a des conseillers et aussi face aux vendeurs d'equipements. Le troisieme objectif est d'attirer l'attention des firmes d'informatiques aux problemes qui se posent au coeur de chaque migration, en proposant des elements de solutions qui peuvent constituer un noyau d'un developpement plus serieux<br>Computers are making progress so rapidly that concepts and tools primarily defined for medium or large machines are now being applied to microcomputers. It is obvious that it is the case for operating systems which can seem to be an obstacle when someone wishes to use components of a computer other than the machine language. The first objective of this thesis is to povide a proven simple and logical method of a universal operating system prototype. The second objective of this thesis is to allow administrators without an elaborate knowledge of operating systems to remain in control and independent when confronted by counsellors or computer salesmen. The third objective is to attract computer firm' attention on problems during the course of each migration by proposing solutions which can be the centre of a more complex development
APA, Harvard, Vancouver, ISO, and other styles
24

Mzouri, Azzeddine. "Les protocoles de communication dans un système d'exploitation réparti." Paris 11, 1988. http://www.theses.fr/1988PA112072.

Full text
Abstract:
Étude et réalisation de protocoles de communication dans un système d'exploitation reparti. L'importance des protocoles spécialises pour assurer la transparence de la communication inter processus est montrée. Il est aussi montre l'intérêt des protocoles généraux lorsque les objectifs du système doivent conjuguer aussi bien la transparence que l'ouverture et la portabilité. Les résultats sont illustrés au travers du cas du système d'exploitation réparti chorus, développe à l'inria.
APA, Harvard, Vancouver, ISO, and other styles
25

Chebili, Mourad. "Une interface intelligente d'assistance à l'utilisation d'un système d'exploitation." Paris 8, 2000. http://www.theses.fr/2000PA081858.

Full text
Abstract:
L' @expansion des Interfaces Utilisateurs Graphiques (IUG) a été rapidement accélérée par la standardisation des systèmes de fenêtrage. Grâce à cette révolution incontournable des IHM, il semble utile et fondamental d'orienter et d'appliquer cette technologie au coeur de la machine : le Système d'Exploitation ou SE. Lors de ce travail, nous justifions la particularité des Interfaces Utlisateurs des SE et nous tentons de démasquer les problèmes actuels de celles-ci. D'autre part, nous tentons de démontrer l'interêt de faire participer activement l'IUSE dans l'Interaction Homme-Machine par le biais d'une intelligence exploitant la technologie des agents activés pour s'adapter aux besoins des utilisateurs. Dans ce cadre, nous proposons d'étudier et de formaliser une architecture intelligente favorisant la décomposition de la tâche. Cela permet la réduction de la complexité et la spécialisation des agents. . . .
APA, Harvard, Vancouver, ISO, and other styles
26

Grimaud, Gilles. "Camille : un système d'exploitation ouvert pour carte à microprocesseur." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-452.pdf.

Full text
Abstract:
Antoine de Saint-Exupéry écrivait en d'autres termes que le progres technologique consiste a faire disparaitre l'outil pour que l'utilisateur jouisse pleinement du service. La carte a puce s'est rapidement integree dans notre vie courante, elle nous represente sur de grands reseaux (e. G. Banquaire, telephonique, sante) sans que nous y pretions vraiment attention. Cependant la carte a microprocesseur reste un produit de l'ingenierie electronique peu connu des informaticiens. Pourtant elle s'est averee la meilleure solution pour gerer la mobilite de l'utilisateur dans bien des cas. Aussi une nouvelle generation de cartes, equipees de veritables systemes d'exploitation, propose de charger dynamiquement donnees et codes issus de langages de programmation connus (java, visual basic, c). Cependant, les informaticiens n'ont fait aucune nouvelle utilisation de ces cartes ouvertes. Nous presentons dans ce document une etude des contraintes et besoins associes a ces nouvelles cartes. A partir de cette etude, nous avons defini une architecture logicielle distribuee entre la carte et son terminal. Nous avons prouve la validite de notre demarche en terme de securite, et une premiere maquette de cette architecture a ete realisee. Differentes experiences ont permis d'evaluer experimentalement les bien-fondes de notre demarche pour les elements logiciels que nous avons finalement places au cur de la carte.
APA, Harvard, Vancouver, ISO, and other styles
27

Lebee, Pierre. "Mise en œuvre d'une architecture spécialisée pour l'exécution d'un système d'exploitation réparti : Chorus." Compiègne, 1986. http://www.theses.fr/1986COMPI249.

Full text
Abstract:
Une nouvelle génération de systèmes d'exploitation est née durant ces dix dernières années : les systèmes d'exploitation répartis. Trois concepts fondamentaux ont été étudiés : la standardisation, la répartition et le parallélisme. CHORUS fait parti de ces systèmes. Ce projet a été développé à l'INRIA, une architecture pour des systèmes répartis a été réalisée. CHORUS offre une compatibilité UNIX, et est indépendant de l'architecture matérielle des machines et des réseaux sur lesquels il est implanté. Cette thèse présente une architecture d'ordinateur complète à base de Transputers et de Clippers adaptée à CHORUS. Ce projet est développé à l'UTC dans la division IlS. La caractéristique principale de cette machine réside dans le fait que le système d'exploitation est exécuté sur un processeur qui lui est dédié : le Transputer. Les tâches des utilisateurs sont exécutées sur le Qipper. Ces deux processeurs sont appelés : processeur Hétérogène Parallèle et Réparti (HPR). La Machine HPR (MHPR) est modulaire et se compose de cinq processeurs HPR. Les Transputers sont connectés entre eux de façon optimale par leurs lignes séries, évitant ainsi les problèmes d'encombrements dus à un bus commun. Les Clippers disposent d'une mémoire locale partagée accessible par leur bus privé, ou par le bus commun. Un troisième bus est utilisé pour le DMAC réalisant les opérations d'E/S (disque, ETHERNET, X2S) et pouvant accéder à toutes les mémoires locales partagées de la machine et à toutes les mémoires privées des Qippers. Ce bus permet d'effectuer les opérations d'BIS sans détériorer la bande passante du bus commun. Les MHPR peuvent être connectées ensemble par des réseaux ETHERNET ou X25<br>A new generation of operating systems is born during the last ten years : distributed operating system oriented network. Three key-concepts are strongly developed : standardization, distribution and parallelism. One of these systems is CHORUS (TM). This project launched at INRIA, has elaborated an architecture far distributed systems. CHORUS offers a UNIX compatibility, is independent of the hardware architecture and of networks. This paper describes a complete computer architecture fitted to CHORUS, based on transputers and Clippers. The project is developed at UTC in the IlS department. The major feature of the machine lays on the fact that the operating system is executed by a dedicated processor : the Transputer. User's tasks are executed on a Clipper. These two processors are called a Heterogeneous Parallel Distributed processor (HPD). The HPD Machine (HPDM) is modular and may be composed of rive HPD processors. Transputers are fully connected by their serial links, avoiding bus bottlenecks. Clippers have a local shared memory accessible by their private bus, or by a global bus. A third bus is used by the DMAC supporting l/0 operations (disk, ETHERNET, X2S) and accessing the local shared memories and Clipper's private memories. This bus permits l/O operations without decreasing global bus bandwidth. HPDMs may be connected together by ETHERNET or X25 network
APA, Harvard, Vancouver, ISO, and other styles
28

Hanibeche, Rafik. "La sûreté de fonctionnement dans les systèmes d'exploitation répartis : application dans le système chorus/mix : mécanismes pour la haute disponibilité des données non volatiles." Paris 7, 1993. http://www.theses.fr/1993PA077057.

Full text
Abstract:
Ce memoire de these aborde l'aspect surete de fonctionnement dans les systemes d'exploitation repartis. Cet aspect est examine dans ses dimensions theorique et pratique. Du point de vue theorique, le memoire comprend une description de paradigmes utilises afin d'assurer, dans les systemes d'exploitation repartis, la surete de fonctionnement des traitements, de l'acces aux donnees non volatiles, de la communication et de l'acces aux ressources protegees. Cette description est precedee d'un expose sur les principales notions relatives a la surete de fonctionnement dans les systemes informatiques et a la structuration des systemes d'exploitation repartis. Du point de vue pratique, le memoire comprend les specifications fonctionnelle et de realisation d'une extension du systeme de gestion de fichiers reparti (sgfr) de chorus/mix. Chorus/mix est un systeme d'exploitation reparti construit de facon modulaire au-dessus d'un micro-noyau. Il offre aux processus utilisateur, une interface d'appels systeme compatible avec celle d'unix et etendue a la repartition. Le but de l'extension du sgfr de chorus/mix est d'assurer une haute disponibilite des donnees non volatiles (fichiers), lors de l'occurrence de fautes franches affectant des sites du systeme informatique gere par chorus/mix. La haute disponibilite des donnees non volatiles est assuree grace a un service de replication de systemes de fichiers. Ce service a ete developpe avec un souci d'integration harmonieuse dans le systeme existant, i. E. Sans modifier l'organisation existante du systeme. La replication, introduite par le biais de l'extension du mecanisme de mount, est entierement prise en charge par le service de replication. Ce service permet de selectionner des systemes de fichiers pour les repliquer. Le service de replication assure une totale coherence entre les exemplaires d'un systeme de fichiers replique. La disponibilite, pour la lecture, l'execution d'un fichier replique est garantie par le service de replication tant qu'il existe un site non defaillant renfermant un exemplaire du fichier
APA, Harvard, Vancouver, ISO, and other styles
29

Deville, Damien. "CamilleRT : un système d'exploitation temps réel extensible pour carte à microprocesseur." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Full text
Abstract:
Le logiciel carte est de plus en plus conçu pour supporter des contraintes temps réel. Par exemple, dans les cartes Java SIM, l'application principale èst chargée de générer une clef cryptographique de session pour chaque unité de communication consommée faute de quoi l'infrastructure GSM rompt la communication. Actuellement, les systèmes d'exploitation pour carte à puce ne gèrent l'aspect temps réel qu'au cas par cas. Ils ne permettent pas aux applications <<utilisateur>> de signifier des besoins en termes d'accès au microprocesseur, ceci pour des raisons de sécurité. Nous proposons une architecture logicielle embarquée autorisant le partage de la ressource microprocesseur entre les extensions de l'exo-noyau Camille. Cette architecture permet aux extensions de supporter des tâches temps réel au dessus de l'exo-noyau garantissant la disponibilité du microprocesseur. Nous avons montré les faiblesses des solutions initialement préconisées pour supporter du temps réel dans les exo-noyaux et nous proposons un moyen de faire collaborer les extensions sous la forme d'un partage d'une de leurs politiques d'ordonnancement et d'une mutualisation de leurs accès au microprocesseur. Nous avons mis en avant les propriétés fonctionnelles que nous attendons de ces ordonnanceurs collaboratifs et nous avons proposé une architecture distribuée permettant de charger ét de valider ces propriétés. Cette architecture de partage du microprocesseur a été validée expérimentalement dans CamilleRT.
APA, Harvard, Vancouver, ISO, and other styles
30

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Full text
Abstract:
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur<br>This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
APA, Harvard, Vancouver, ISO, and other styles
32

Faravelon, Antoine. "Accélération des accès mémoire dans la traduction binaire dynamique." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM050/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons à l'accélération des accès mémoire dans la traduction binaire dynamique.Pour cela, nous nous basons sur des méthodes dont la principale finalité est de gérer l'espace mémoire de la cible avec le matériel de l'hôte.Deux grandes méthodes pour cela ont été exploré, l'une basé sur la support matériel à la virtualisation, et l'autre sur un module Linux.Dans le cas du support matériel à la virtualisation, nous avons utilisé le simulateur comme un invité spécifique.Celui ci jouant un rôle analogue à celui d'un OS, en plus de son rôle de simulateur, pour la cible.En particulier il se charge de lui créer un espace d'adressage enchevêtré, qui puisse être utiliser directement, sans simulation logicielle de la gestion de la mémoire virtuelle.Dans le cas de la méthode basée sur un module Linux, les mêmes finalités sont poursuivi.Mais le simulateur continue de fonctionner comme un processus normal.En revanche, il possède désormais un module compagnon, avec lequel il peut communiquer au travers d'ioctl.Ce module est chargé de manipuler la gestion de la mémoire virtuelle de l'hôte et ce afin de créer un espace d'adressage enchevêtré pour la cible.Ces méthodes ont été implémenté dans Qemu et Linux et mène à des gains de performances significatifs<br>In this thesis we are interested in the acceleration of memory accesses in dynamic binary translation.For this, we base ourselves on methods whose main purpose is to manage the target's address space with the host's hardware.Two main methods for this have been explored, one based on hardware assisted virtualization, and the other on a Linux module.In the case of hardware assisted virtualization, we used the simulator as a specific guest.This one playing a role similar to that of an OS, in addition to its role of simulator, for the target.In particular, it is responsible for creating an enmbedded address space that can be used directly, without software simulation of an MMU.In the case of a method based on a Linux module, the same purpose is pursued.But the simulator continues to operate as a normal process.On the other hand, it now has a companion module, with which it can communicate through ioctl.This module is responsible for manipulating the host's virtual memory management to create an embedded address space for the target.These methods have been implemented in Qemu and Linux and lead to significant performance gains
APA, Harvard, Vancouver, ISO, and other styles
33

Duquennoy, Simon. "Smews : un système d'exploitation dédié au support d'applications Web en environnement contraint." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10184/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte de l'extension des technologies du Web à l'informatique enfouie. Le Web des objets qui en résulte ouvre les portes à de nouvelles interactions en garantissant une interopérabilité aussi bien au niveau réseau qu'applicatif. Nous adressons la conception du système logiciel jouant le rôle de serveur Web au sein d'équipements fortement contraints, tels que des cartes à puce ou des capteurs. Les solutions de l'état de l'art permettant de supporter une pile protocolaire standard à faible empreinte mémoire exigent de sacrifier les performances et les fonctionnalités du système. La thèse défendue est qu'en dédiant un système d'exploitation au support d'une famille d'applications de haut niveau, nous sommes en mesure de produire un logiciel performant et consommant très peu de ressources. Nous étudions une architecture basée sur un macro-noyau intégrant gestion du matériel, pile de communication et conteneur d'applications, présentant une interface adaptée aux besoins de ces dernières<br>The context of this thesis is the extension of Web technologies to ambient computing. The resulting Web of Things allows novel interactions by guaranteeing interoperability at both network and applications levels. We address the design of the software system behaving as a Web server and embedded in strongly constrained devices such as smart cards or sensors. The state of the art solutions allowing to run a lightweight standard protocol stack involve poor performances and sacrifice the system features. The thesis is that by dedicating an operating system to the support of a high-level family of applications, we can produce an efficient software consuming a few resources. We study an architecture based on an macro-kernel integrating the hardware management, the communications stack and the applications container, providing an interface that fits the applications needs
APA, Harvard, Vancouver, ISO, and other styles
34

Boule, Ivan. "Fenix : un système multifenêtres intégré à Unix." Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00324433.

Full text
Abstract:
Développement d'un système multi-fenetres permettant l'exécution parallèle de plusieurs applications interactives disposant chacune d'un nombre quelconque de fenêtres sur l'écran de façon totalement transparente aux applications. L'architecture du système repose sur une séparation stricte entre, d'une part le partie opératoire regroupant les fonctions de base et, d'autre part, la partie contrôle qui gère les commandes mises à la disposition de l'utilisateur
APA, Harvard, Vancouver, ISO, and other styles
35

Durocher, Éric. "Plum : des processus légers pour Unix multiprocesseur." Paris 11, 1989. http://www.theses.fr/1989PA112070.

Full text
Abstract:
Adaptation du système Unix a une architecture multiprocesseurs étroitement couplée à mémoire partagée. Le système PLUM permet d'exécuter plusieurs processus en prallèle en assurant une répartition dynamique sur les processeurs disponibles. De plus, l'utilisateur peut accèder explicitement au parallélisme grace à la notion de processus légers. De nouveaux apples systèmes permettent aux processus légers de communiquer et de se synchroniser selon un schéma de rendez-vous.
APA, Harvard, Vancouver, ISO, and other styles
36

Mompelat, Rodrigue. "La problématique sémantique et cognitive de la métaphore : littéralité, traduction, catégorisations, étude cognitive polymorphe (linguistico-computationnelle, logique mathématique, philosophique, cybernétique et biologique) de métaphores de la terminologie informatique UNIX." Paris, EHESS, 2001. http://www.theses.fr/2001EHES0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Bissyandé, Tegawendé F. "Contributions à l'Amélioration du Débogage des Services Noyau dans un Système d'Exploitation Monolithique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00808877.

Full text
Abstract:
Alors que la recherche sur la qualité du code des systèmes a connu un formidable engouement, les systèmes d'exploitation sont encore aux prises avec des problèmes de fiabilité notamment dûs aux bogues de programmation au niveau des services noyaux tels que les pilotes de périphériques et l'implémentation des systèmes de fichiers. Des études ont en effet montré que que chaque version du noyau Linux contient entre 600 et 700 fautes, et que la propension des pilotes de périphériques à contenir des erreurs est jusqu'à sept fois plus élevée que toute autre partie du noyau. Ces chiffres suggèrent que le code des services noyau n'est pas suffisamment testé et que de nombreux défauts passent inaperçus ou sont difficiles à réparer par des programmeurs non-experts, ces derniers formant pourtant la majorité des développeurs de services. Cette thèse propose une nouvelle approche pour le débogage et le test des services noyau. Notre approche est focalisée sur l'interaction entre les services noyau et le noyau central en abordant la question des "trous de sûreté" dans le code de définition des fonctions de l'API du noyau. Dans le contexte du noyau Linux, nous avons mis en place une approche automatique, dénommée Diagnosys, qui repose sur l'analyse statique du code du noyau afin d'identifier, classer et exposer les différents trous de sûreté de l'API qui pourraient donner lieu à des fautes d'exécution lorsque les fonctions sont utilisées dans du code de service écrit par des développeurs ayant une connaissance limitée des subtilités du noyau. Pour illustrer notre approche, nous avons implémenté Diagnosys pour la version 2.6.32 du noyau Linux. Nous avons montré ses avantages à soutenir les développeurs dans leurs activités de tests et de débogage.
APA, Harvard, Vancouver, ISO, and other styles
38

Guez, Stéphane. "Interix : conception et réalisation d'un système d'aide intelligent sur Unix." Châtenay-Malabry, Ecole centrale de Paris, 1987. http://www.theses.fr/1987ECAP0027.

Full text
Abstract:
Interix est un système d’aide intelligent pour le système d’exploitation Unix. Interix permet aux utilisateurs débutants de poser des questions en français sur le fonctionnement et l’utilisation d’Unix (exemple : Comment effacer un fichier ?). Les réponses sont également rédigées en français. La difficulté des problèmes que posent la compréhension des requêtes d’un utilisateur débutant et la construction d’une représentation sémantique formalisée de leur signification nous a conduit à envisager l’ensemble du problème du point de vue de l’élaboration des réponses, considérée comme un véritable en soi nécessitant une réflexion particulière, des traitements et des connaissances spécifiques. En suivant un certain nombre de principes généraux, les réponses ont été conçues comme des exposés sur Unix construits et cohérents, adaptés à la situation personnelle de l’utilisateur, comme des explications, à la fois pertinentes et didactiques, compréhensibles et complètes, destinées à enrichir les connaissances de l’utilisateur et à le former à la maitrise d’Unix. Nous nous sommes particulièrement intéressés à l’analyse et à la représentation des connaissances, réparties en deux ensembles : une description opératoire des concepts du domaine, destinée à établir le lien entre les intentions de l’utilisateur et les solutions disponibles ; une représentation très riche des commandes, de leur fonctionnement et de toutes les informations pouvant intéresser l’utilisateur, destinée à servir de base au processus d’élaboration du contenu des réponses. Ce processus consiste à sélectionner les informations pertinentes, à les évaluer en fonction des données contextuelles disponibles et à les organiser.
APA, Harvard, Vancouver, ISO, and other styles
39

Leclercq, Claude. "Un problème de système expert temps réel : la gestion de centres informatiques." Lille 1, 1990. http://www.theses.fr/1990LIL10143.

Full text
Abstract:
Le pilotage des centres informatiques est une tache délicate qui ne peut être confiée qu'à un ingénieur système. Sa compétence est basée sur trois qualités : une bonne connaissance technique, une longue expérience et une capacité à trouver rapidement des solutions efficaces aux problèmes qui lui sont posés. Il est ce qu'on appelle un expert. Au vu de ces caractéristiques, nous avons décidé de développer sur micro-ordinateur un système expert d'assistance au pilotage des centres informatiques, dont le but est de surveiller le fonctionnement d'un grand ordinateur. La caractéristique originale de ce système expert est de fonctionner en temps réel. Ceci pose des problèmes de variables à affectations multiples qui peuvent être à l'origine d'inconsistances dans la base de faits. De plus, la quantité d'informations gérées aurait été incompatible avec la contrainte du temps réel si nous n'avions pas eu recours à une méthode particulière de gestion des inconsistances et d'optimisation de l'inférence. Cette méthode, telle qu'elle a été implémentée dans le logiciel, fait l'objet d'une étude théorique détaillée dans le mémoire. Le fruit de ce travail est un progiciel commercialisé : « SEAT », dont l'utilisation a déjà fourni de bons résultats.
APA, Harvard, Vancouver, ISO, and other styles
40

Polo, Mario. "Méthodes et outils d'aide à la configuration et à l'optimisation d'applications transactionnelles." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0058.

Full text
Abstract:
L'objet de notre étude est de concevoir et de mettre en oeuvre une méthodologie d'évaluation de pcrfonnance d'applications transactionnelles pour maîtriser le temps de réponse perçu par les utilisateurs. Nous avons adopté une démarche en trois étapes : 1 - campagne de mesure pour analyser le comportement dynamique de systèmes pilotes (plus particulièrement UNIX et ORACLE) en fonction des paramètres influents sur le temps de réponse, 2 - analyses de données (par analyses en composantes principales et approximations polynomiales) et interprétation des résultats de mesures pour modéliser le temps de réponse en fonction des facteurs influents, 3 - évaluation prévisionnelle de la charge d'un système cible pour proposer une configuration (matérielle et logicielle) optimale. Notre outil implémente cette méthodologie et propose le résultat d'une évaluation sous la forme d'un rapport de performance<br>Our aim was to design and develop a methodology for performance optimisation of transactional applications to control the user response time. We used a three steps approach : 1 - data collection to analyse the dynamical behaviour of pilot systems (specially UNIX and ORACLE) according to response time influent factors, 2 - modelisation of the response time according to the influent factors with data analyses (principal component Analysis and polynomial approximation) and interpretation of measures results. 3 - workload evaluation of the target system for proposing the optimal (hardware and software) configuration. Our tool used this methodology and provide a performance report of the evaluation result
APA, Harvard, Vancouver, ISO, and other styles
41

Vallée, Geoffroy. "Conception d'un ordonnanceur de processus adaptable pour la gestion globale des ressources dans les grappes de calculateurs : mise en oeuvre dans le système d'exploitation Kerrighed." Rennes 1, 2004. http://www.theses.fr/2004REN10011.

Full text
Abstract:
Les travaux de cette thèse, qui s'inscrivent dans la conception du système d'exploitation à image unique pour grappe Kerrighed, portent sur l'étude et la conception d'un ordonnanceur global modulaire et adaptable permettant le développement simple de politiques d'ordonnancement pour grappe. Cet ordonnanceur global repose sur des mécanismes de gestion globale des processus (création distante, duplication, migration, création/restauration de points de reprise). Ces mécanismes se fondent sur un concept unique appelé processus fantôme de virtualisation de processus et tirent profit de la mémoire virtuellement partagée de Kerrighed pour la gestion des threads. Grâce à ces mécanismes, Kerrighed offre une interface de programmation POSIX thread, permettant, par exemple, l'exécution d'applications OpenMP sur grappe. Les travaux effectués ont été intégrés au prototype Kerrighed, logiciel libre diffusé, et validés par l'exécution d'applications industrielles fournies par EDF R&D.
APA, Harvard, Vancouver, ISO, and other styles
42

Vermot-Gauchy, Robert. "Utilisation du macro-traitement dans différents domaines de l'informatique : application à un système type S/370." Nice, 1987. http://www.theses.fr/1987NICE4152.

Full text
Abstract:
Présentation des objectifs et des principes de la macroprogrammation. Une méthode pour la construction automatique de fichiers ou de programmes est proposée. Les nombreuses possibilités offertes par le macrogénérateur de l'assembleur du S/370 sont présentées
APA, Harvard, Vancouver, ISO, and other styles
43

Laborie, Bernard. "Une messagerie aux normes X. 400 sous UNIX : implémentation, interconnexion et administration." Paris 6, 1987. http://www.theses.fr/1987PA066463.

Full text
Abstract:
Un bref historique des systèmes de messagerie normalisés est dressé. Ensuite la partie transfert de messages du système est détaillée : problèmes d'adressage, problèmes de routage, problèmes de compatibilité des protocoles utilisés, implémentation de passerelles. Les problèmes d'administration d'un réseau de messagerie sont également étudiés : réaction aux anomalies ou aux pannes temporaires, gestion des coûts de transmission. La dernière partie est consacrée à l'accès de l'usager au système: intégration dans le système Unix, convivialité de l'interface, composition de messages, gestion des messages reçus, services auxiliaires (annuaires, serveurs d'archivage).
APA, Harvard, Vancouver, ISO, and other styles
44

El, Hatib Souad. "Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66322.

Full text
Abstract:
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android.<br>The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
APA, Harvard, Vancouver, ISO, and other styles
45

Seigneur, Frédéric. "Adaptation des méthodes de caractérisation électrique au cas des structures M. O. S. à oxyde très mince : application à l’étude des dégradations sur les capacités à oxyde de grille nitrure." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0108.

Full text
Abstract:
Nous abordons ce travail par une présentation des problèmes technologiques actuels relatifs aux dissymétries de fonctionnement de certains circuits C. M. O. S. . Les solutions correspondantes nous ont conduit à introduire des notions de base sur les oxydes minces et sur la nitruration. Après avoir fait un rappel sur les défauts à l'interface Si / Si02, nous présentons sur le plan théorique les principales techniques de dégradation (injection de porteurs, irradiation) ainsi que les défauts consécutifs créés dans l'oxyde et à l'interface Si 1 Si02. La seconde partie est consacrée au développement expérimental d'un ensemble de techniques de caractérisation sur des structures M. O. S. à oxyde mince. Nous décrivons le banc de mesure et mentionnons les difficultés pratiques rencontrées et surmontées. Nous présentons ensuite les principales techniques capacitives qui permettent de déterminer les paramètres de base des structures M. O. S. (C0x, N, Vfb, etc. . . ). Nous discutons de la fiabilité des résultats (sensibilité, précision) et nous proposons des améliorations permettant de contourner quelques difficultés de caractérisation inhérentes aux oxydes minces. Concernant les états rapides, nous avons développé des techniques de dégradation (F. N. , irradiation) et de caractérisation de la qualité de l'interface Si / Si02 (TERMAN, hf-hf et D. L. T. S. ). Nous étudions ensuite dans les structures M. O. S. Les différentes causes de l'instabilité consécutive à la présence d'états lents. Pour cela, nous avons mis en place la méthode tunnel D. L. T. S. , cependant, nous avons montré que l'utilisation d'appareils de polarisation (générateur de pulses) dans des conditions particulières peut conduire à des erreurs systématiques de mesures. Sur ce constat de non fiabilité, nous avons développé deux autres techniques toujours orientées sur l'exploitation des caractéristiques capacitives. Ces méthodes de mesure nous permettent de mettre en évidence expérimentalement les "états lents" et d'étudier quelques unes de leurs caractéristiques spectrales. Finalement, nous avons appliqué l'ensemble des techniques précédemment développées à un lot particulier d'échantillons nitrurés. Après avoir présenté leurs caractéristiques électriques générales, nous étudions et comparons la résistance de ces structures face à deux mécanismes de dégradation : injection de porteurs froids (F. N. ) et irradiation au Co60<br>[We approach this work by a presentation of current technological problems relative to functioning dissymmetries of some C. M. O. S. Devices. The solutions we propose have lead us to introduce basic information on thin oxides and nitrification. We first introduce defects at the Si / SiO2 interface, then we theoretically present the main degradation techniques (carrier injection, irradiation) and their induced defects created in the oxide bulk and at the interface. The second parts dedicated to the experimental development of a set of characterization techniques on M. O. S. Structures with thin oxide. We describe the measurement bench and the difficulties we overcame during its development. Then, we present the main capacitance measurements techniques that allow to determine the basic parameters of a M. O. S. Structure (C0x, N, V fb etc. . . ). We discuss the reliability of results (sensitivity, accuracy) and we propose improvements allowing to bypass some characterization difficulties linked to thin oxides. Concerning fast states, we have developed degradation techniques (F. N, irradiation) and characterization of the Si 1 Si02 interface quality (TERMAN, hf-bf and D. L. T. S. ). We then study in M. O. S. Structure, the reasons of the instability due to the slow states, by implementing the tunnel D. L. T. S. Method However. We have shown that the use of voltage sources (pulse generators) in specific conditions may cause systematic measurements errors. Taking this into account, we have developed two other techniques also based on the exploitation of capacitance measurements. These methods allow us to experimentally highlight the "slow states" and to study some of their spectral characteristics. Finally, we have applied the whole techniques previously de\'eloped to specific nitrated samples. After presenting their general electrical characteristics, we study and compare the resistance of these structures to two degradation mechanisms : cold carrier injection (F. N. ) and Co60 irradiation. ]
APA, Harvard, Vancouver, ISO, and other styles
46

Courbot, Alexandre. "Spécialisation tardive de systèmes Java embarqués pour petits objets portables et sécurisés." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00113765.

Full text
Abstract:
Java est une technologie attractive pour les équipements embarqués et contraints, de par ses propriétés de sûreté, de portabilité et de faible empreinte mémoire du code. Cependant, la taille imposante d'un environnement Java complet a obligé les producteurs d'équipements embarqués à utiliser des spécifications dégradées de Java aux fonctionnalités limitées, telles que J2ME ou Java Card. Ces spécialisations précoces de Java perdent la compatibilité au niveau applicatif avec l'édition standard, et ne peuvent ainsi s'adresser qu'à des cas d'utilisation particuliers.Notre travail consiste à permettre l'utilisation de l'édition standard de Java sur les systèmes contraints, au travers d'une spécialisation tardive et agressive du système qui intervient après déploiement de ses applications. L'occurrence tardive de la spécialisation permet de mieux déterminer les conditions d'utilisation du système, et donc de le spécialiser « sur mesure » par rapport aux applications qu'il exécute.Nos contributions sont les suivantes : dans un premier temps, nous définissons la notion de « romization », consistant à déployer un système hors-ligne avant de capturer et de transférer son image mémoire vers l'équipement sur lequel il doit s'exécuter. De cette définition, nous proposons une architecture de romization capable de capturer une image mémoire du système à n'importe quel moment de son exécution. Dans un second temps, nous traitons des moyens d'analyse et de spécialisation permettant de rendre cette image mémoire embarquable. L'évaluation effectuée montre que cette spécialisation tardive, appliquée à un environnement Java standard déployé, permet effectivement d'en obtenir une version minimaliste et embarquable sur un équipement contraint.
APA, Harvard, Vancouver, ISO, and other styles
47

Durand, Rémi. "De la contre-culture à l'« évangélisme technologique » : les développeurs et la révolution du smartphone." Paris, EHESS, 2016. http://www.theses.fr/2016EHES0066.

Full text
Abstract:
Nous vivons, depuis plus d'un demi-siècle, ce que certains appellent une « troisième révolution industrielle », celle des ordinateurs personnels et des smartphones. Si ces systèmes techniques marquent par leur puissance et par les nouvelles possibilités qu'ils ouvrent, ils n'en restent pas moins des plateformes qui, en elles-mêmes, n'ont pas d'utilité. Ce qui leur donne leur valeur d'usage sont essentiellement les applications qu'elles proposent à leurs utilisateurs, et elles ne sont pas forcément développées par les entreprises qui produisent ces plateformes. Cette thèse propose de s'intéresser aux développeurs d'applications tierces, et plus spécifiquement aux « communautés de développeurs » qui entourent les deux principales plateformes de l'industrie du smartphone : Android développée par Google, et celle de l'iPhone d'Apple. Quel intérêt présente l'analyse de cet univers socio-industriel ? Nous pourrions dire que ces écosystèmes de développeurs, notamment celui d'Android, présentent un paradoxe. D'un côté il s'agit d'une plateforme open source, très liée à ce que certains ont appelé l'« éthique hacker ». De l'autre, cet univers constitue une organisation relativement cohérente, structurée, centralisée autour de l'acteur dominant qu'est Google, et traversée par de nouvelles formes d'asymétries et de nouveaux rapports de pouvoir, parfois plus importants que ceux qui rebutent les hackers. Ce travail propose d'explorer cet univers constitué de multinationales et des écosystèmes de développeurs qui les entourent, de regarder leur histoire, les logiques qui les sous-tendent, les dispositifs qui les structurent<br>We live, for more than half a century, what some call a "third industrial revolution", that of personal computers, of smartphones and more recently of internet of things. If these technical systems impress by their power and by the new possibilities that they open, they remain platforms which, in themselves, have no utility. What gives them their use value are essentially applications that they offer to their users, and these are not necessarily developed by companies that produce these platforms. This thesis proposes to focus on the third party applications developers, and more specifically to "developer communities" which surround the two main platforms of the smartphone industry: Android developed by Google, and the iPhone of Apple. What interest presents the analysis of this socio-industrial environment? We could say that these ecosystems of developers, especially that of Android, presents a paradox. On one side it is an open source platform, very related to what some called the "hacker ethic", this "do-it-yourself" spirit who reject traditional forms of authority. On the other side, this environment constitutes a relatively coherent organization, structured, centralized around the dominant player that is Google, and crossed by new forms of asymmetries and new power relations, sometimes more important than those rejected by hackers. This work proposes to explore this environment made of multinationals and ecosystems of developers which surround them, to look at their history, the logics that underlie them, the apparatus which structure them
APA, Harvard, Vancouver, ISO, and other styles
48

Tawbi, Chawki. "Adactif : extension d'un SGBD à l'activité par une approche procédurale basée sur les rendez-vous." Toulouse 3, 1996. http://www.theses.fr/1996TOU30262.

Full text
Abstract:
L'activite dans les sgbd est mise en uvre grace aux regles evenement-condition-action (eca) qui servent a specifier le comportement actif du systeme et sa reaction vis a vis des situations rencontrees dans la bd et dans son environnement. L'evenement specifie le moment du declenchement de la regle, la condition verifie si l'etat de la bd necessite l'execution de l'action qui a son tour execute des operations en reponse a l'evenement. Ces operations peuvent servir a annuler la cause de l'evenement ou a executer ses consequences. Dans les travaux effectues durant la these, nous nous sommes interesses a un langage dote de mecanismes temps-reel afin de s'en inspirer pour etendre un sgbd passif a l'activite. Nous nous sommes inspires des taches ada et de leur mecanisme de synchronisation (les rendez-vous) pour implanter les regles dans notre sgbd actif baptise adactif. Les regles dans adactif sont considerees comme des taches actives attendant un rendez-vous du systeme en l'occurence de l'evenement declenchant. Chaque tache a en charge la verification d'une condition et, si elle est satisfaite, l'execution de l'action associee decrite de facon procedurale. Les taches dans adactif ont ete realisees a l'aide des processus unix et evoluent en parallele. La synchronisation dans le systeme, quant a elle, est mise en uvre a l'aide des pipe-line unix. D'autre part, comme les evenements composes (formes d'une combinaison d'evenements) jouent un role important dans les sgbd actifs, nous proposons un mecanisme de detection de ce type d'evenements base lui aussi sur le principe de tache et de rendez-vous. Ainsi, un evenement compose est detecte par une regle en attente de rendez-vous avec les evenements composants. Lorsque ces derniers sont au rendez-vous, et apres que la composition ait ete realisee, cette regle signale l'evenement compose au systeme. Cette approche permettra a l'utilisateur de specifier ses propres operateurs de composition conformement a la semantique de son application
APA, Harvard, Vancouver, ISO, and other styles
49

Gallard, Pascal. "Conception d'un service de communication pour systèmes d'exploitation distribués pour grappes de calculateurs : mise en oeuvre dans le système à image unique Kerrighed." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00011152.

Full text
Abstract:
Dans la ligné des réseaux de stations de travail, les grappes de calculateurs représentent une alternative attrayante, en terme de performance et de coût, comparativement aux machines parallèles traditionnelles, pour l'exécution d'applications parallèles de calcul à haute performance. Une grappe de calculateurs est constituée d'un ensemble de noeuds interconnectés par un réseau dédié à haute performance. Les systèmes à image unique (Single System Image -- SSI) forment une classe de logiciel offrant aux utilisateurs et programmeurs d'une grappe de calculateurs, l'illusion d'une machine unique. Un SSI peut être conçu à différents niveaux (intergiciel, système d'exploitation) selon le degré d'exigence quant à la<br />réutilisation sans modification de modèles de programmation et d'applications existants. Dans notre contexte, les applications visées sont de type MPI ou OpenMP. Comme pour tout système distribué, le système d'interconnexion des noeuds de la grappe se trouve au coeur des performances globales de la grappe et des SSIs.<br /><br />Les travaux présentés dans cette thèse portent sur la conception d'un système de communication dédié aux systèmes d'exploitation distribués pour grappes. Ces travaux s'inscrivent dans le cadre de la conception et la réalisation d'un SSI pour l'exécution d'applications haute performance sur grappe de calculateurs.<br /><br />Notre première contribution se situe dans la conception d'un modèle de communication adapté aux communications internes aux services systèmes distribués qui constituent le SSI. En effet, de la performance des communications dépendent les performances globales de la grappe. Les transactions de communication permettent (i) de décrire un message lors de sa création, (ii) d'acheminer efficacement le message en<br />fontion des ressources disponibles, et (iii) de délivrer et traiter le<br />message au plus tôt sur le noeud destinataire.<br /><br />Notre seconde contribution correspond à la conception d'un support au déplacement de processus communiquant par flux de données (socket, pipe, etc.). En effet, au sein d'un SSI, les processus peuvent être déplacés en cours d'exécution par un ordonnanceur global. Les flux dynamiques permettent le déplacement d'une extrémité de communication sans dégradation des performances.<br /><br />Nos propositions ont été mises en oeuvre dans le prototype de SSI Kerrighed, conçu au sein du projet INRIA PARIS de l'IRISA. Ce prototype nous a permis d'évaluer le système de communication proposé. Nous avons montré une réactivité accrue des services systémes distribués ainsi qu'une absence de dégradation des performances des applications communiquant par messages (en particulier MPI) aprés déplacement d'un processus. L'ensemble de ce travail est distribué sous licence GPL en tant que partie de Kerrighed et est disponible à l'adresse: http://www.kerrighed.org.
APA, Harvard, Vancouver, ISO, and other styles
50

Limam, Bedhiaf Imen. "Virtualisation des infrastructures des opérateurs de réseaux mobiles." Paris 6, 2011. http://www.theses.fr/2011PA066341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography