To see the other types of publications on this topic, follow the link: Système fichier.

Dissertations / Theses on the topic 'Système fichier'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système fichier.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Busca, Jean-Michel. "Pastis : un système pair à pair de gestion de fichier." Paris 6, 2007. http://www.theses.fr/2007PA066578.

Full text
Abstract:
Pastis est un nouveau système de gestion de fichier pair à pair qui se démarque des systèmes existants par son architecture entièrement décentralisée et sa capacité à supporter un grand nombre d'utilisateurs. Pastis s'appuie sur la table de hachage distribuée Past, qui lui fournit ses propriétés d'auto-organisation, de tolérance aux fautes, de disponibilité et de passage à l'échelle. Pastis propose trois modèles de cohérence, permettant aux applications de choisir le compromis adéquat entre performance et cohérence des accès au système de fichiers. Ces modèles tirent parti des propriétés de localité de Past pour optimiser les accès réseau et augmenter les performances du système. Pastis garantit l'intégrité des données en s'appuyant sur des techniques cryptographiques et en implémentant un contrôle d'accès utilisant des ACL partagées. L'évaluation de Pastis en environnement émulé et simulé suggère que ses performances sont comparables ou supérieures à celles des systèmes existants.
APA, Harvard, Vancouver, ISO, and other styles
2

Padioleau, Yoann. "Logic file system : un système de fichier basé sur la logique." Rennes 1, 2005. ftp://ftp.irisa.fr/techreports/theses/2005/padioleau.pdf.

Full text
Abstract:
Pour rechercher des documents numériques (musiques, e-mails, sources de programmes) les systèmes traditionnels, comme les systèmes de fichiers ou le Web, fournissent chacun des outils de navigation et d'interrogation, mais ne permettent pas de les combiner. La navigation est intuitive et progressive mais elle implique une classification des données rigide et unique. L'interrogation apporte flexibilité et expressivité, mais ne possède pas les avantages de la navigation. Pour manipuler le contenu de ces documents, d'autres outils existent mais ils souffrent des mêmes limitations. Nous proposons un nouveau paradigme pour les systèmes d'information basé sur la logique : le Logic File System (LFS), qui offre une organisation expressive, une recherche combinant interrogation et navigation, et une facilité de manipulation, à la fois des fichiers et de leurs contenus ; le tout d'une façon intégrée et mis en oeuvre au niveau système de fichier.
APA, Harvard, Vancouver, ISO, and other styles
3

Cornuau, Frédérique. "Vie et mort des entreprises en Aquitaine : analyse démographique des entreprises à partir d'un fichier administratif." Bordeaux 4, 2002. http://www.theses.fr/2002BOR40029.

Full text
Abstract:
Mener une analyse démographique des entreprises revient à étudier une sous-population humaine, celle des chefs d'entreprises. Elle se modifie par le jeux des créations, des cessations et des transferts. Le répertoire SIRENE, géré par l'INSEE, contient toutes les entreprises et établissements , et tous les évènements les affectant. Il a un rôle administratif et statistique. Il fournit les flux et les stocks d'entreprises à partir d'une observation suivie permanente. Cependant, comme nombre de fichiers administratifs, il reste peu adapté au suivi longitudinal. Une réorganisation des données est donc nécessaire. Les séries constituées en Aquitaine montrent que derrière la stabilité des stocks observés depuis 1989 se cachent de profondes mutations. L'analyse longitudinale de la création et de la cessation d'entreprises éclaire les causes de l'évolution du parc. Elle montre , en particulier, que 20% des personnes d'une génération créeraient une entreprise, mais que 50% ne dépasse pas 5 ans.
APA, Harvard, Vancouver, ISO, and other styles
4

Andreewsky, Marina. "Construction automatique d'un système de type expert pour l'interrogation de bases de données textuelles." Paris 11, 1989. http://www.theses.fr/1989PA112310.

Full text
Abstract:
Notre thèse décrit la construction d’un système d’aide à l’interrogation de bases de données textuelles en naturel, le système FASE. Pour une base donnée, FASE génère automatiquement des suites de mots sémantiquement importants de son vocabulaire. Celles-ci sont organisées en arborescence: la racine correspond aux termes généraux de la base et les feuilles aux termes spécifiques d’un petit nombre de documents. Les arborescences sont créées à l'aide de deux modules : le premier, à caractère linguistique, attribue un fichier inverse des mots sémantiques à chaque base traitée. Il comprend une analyse morpho-syntaxique et le traitement de certaines formes de négation et de synonymie. Le second créé, à partir du fichier inverse, des chaînes de mots importants de la base qui recouvrent tous les documents concernés à une étape donnée. Cette procédure permet également d’effectuer une classification automatique de la base textuelle traitée. L'interrogation d'une base consiste en un parcours sélectif de l’arborescence, de la racine à une feuille, c'est-à-dire du niveau le plus général au niveau le plus spécifique. A chaque étape, le système présente à l'utilisateur une suite de mots caractéristiques d'un ensemble de plus en plus restreint de documents. Celui-ci sélectionne les mots les plus proches du sujet qui l'intéresse et le système calcule dynamiquement la nouvelle suite de mots à proposer. Aucune requête n'est à formuler: le système guide la recherche et permet de converger vers les documents correspondants aux validations successives.
APA, Harvard, Vancouver, ISO, and other styles
5

Castro, Harold. "Les entrées-sorties dans les architectures massivement parallèles." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005040.

Full text
Abstract:
Il est reconnu aujourd'hui que pour un grand nombre d'applications les performances globales des systèmes sont fortement limitées faute d'un transfert suffisament rapide entre les unités de calcul et les dispositifs de stockage. L'idée développée au long de cette thèse est qu'il est possible de réaliser un système d'E/S universel et performant dans un environnement extensible si l'on respecte quelques principes dans sa conception. Pour ce faire, il est nécessaire d'y faire participer le matériel, le système d'exploitation, le système de fichiers et les utilisateurs, chacun au niveau approprié. Notre travail intègre toutes les composantes d'un sous-système d'E/S. En premier lieu, nous choisissons une architecture matérielle adéquate aux divers types de demandes d'E/S observés dans les applications parallèles. Nous présentons une architecture universelle et extensible qui permet de maximiser l'exploitation du parallélisme. En deuxième lieu, nous utilisons ParX, un micro-noyau parallèle conçu à l'intérieur de notre équipe, pour fournir les mécanismes de base à l'exécution d'un système de fichiers parallèle. Nous concrétisons d'abord certaines extensions indispensables pour mieux adapter ParX aux besoins des E/S parallèles, et ensuite, afin d'exploiter la projection des fichiers dans l'espace d'adressage, nous développons des mécanismes originaux, nécessaires à l'implémentation d'un espace d'adressage commun dans une architecture extensible à mémoire distribuée. En troisième lieu, nous introduisons les principes de base qui doivent être respectés afin de concilier la généralité et les hautes performances dans la conception d'un système de fichiers parallèle extensible. L'architecture du système de fichiers proposée à la fin du rapport est le résultat de l'application de ces principes.
APA, Harvard, Vancouver, ISO, and other styles
6

Léon, Jacques. "Conception et réalisation d'un système de transfert de fichiers fondé sur le protocole de fichier virtuel FTAM (ISO) et application à la transmission de données par le satellite TELECOM 1 entre le CERN et Saclay." Paris 11, 1985. http://www.theses.fr/1985PA112252.

Full text
Abstract:
Le File Transfer System (ou FTS) est un logiciel de transfert de fichier conforme au modèle de référence ISO. Il recouvre les fonctions du protocole de fichier virtuel FTAM, et de la couche présentation. Il a été conçu pour interconnecter une large gamme de systèmes par le moyen de logiciels de réseaux divers. Il est donc portable et indépendant du réseau auquel il est raccordé. Le FTS gère plusieurs utilisateurs, et plusieurs transferts simultanés. Il gère lui-même ses tâches à l'aide de son propre noyau. L'une des applications essentielles du FTS est le transfert de données à haut débit (2Mbits/s) par le satellite TELECOM 1 via le réseau HELIOS. Enfin, un exemple d'implantation du FTS est illustré dans le cas du système VM/CMS d'IBM et du logiciel de réseau NETEX de NSC.
APA, Harvard, Vancouver, ISO, and other styles
7

Chai, Anchen. "Simulation réaliste de l'exécution des applications déployées sur des systèmes distribués avec un focus sur l'amélioration de la gestion des fichiers." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI003/document.

Full text
Abstract:
La simulation est un outil puissant pour étudier les systèmes distribués. Elle permet aux chercheurs d’évaluer différents scénarios de manière reproductible, ce qui est impossible à travers des expériences réelles. Cependant, les simulations reposent souvent sur des modèles simplifiés, dont le réalisme est trop rarement étudié dans la littérature. Ceci mène à une pertinence et une applicabilité discutables des résultats obtenus. Dans ce contexte, l'objectif principal de notre travail est d'améliorer le réalisme de la simulation en mettant l'accent sur le transfert de fichiers dans un système distribué à large échelle, tel que l’infrastructure de production EGI. Le réalisme de la simulation est étudié ici au travers de deux aspects principaux : le simulateur et le modèle de plate-forme (l’infrastructure distribuée). Ensuite, à partir de simulations réalistes, nous proposons des recommandations fiables pour améliorer la gestion des fichiers à travers des portails scientifiques, tels que la plate-forme d'imagerie virtuelle (VIP). Afin de reproduire de manière réaliste les comportements du système réel en simulation, nous devons en obtenir une vue de l'intérieur. Par conséquent, nous recueillons et analysons un ensemble de traces d’exécutions d'une application particulière exécutée sur EGI via VIP. En plus des traces, nous identifions et examinons les composants du système réel à reproduire de manière réaliste en simulation. Il s’agit, par exemple, des algorithmes utilisés pour la sélection d’un réplica dans le système de production. Nous simulons ensuite ces composants en utilisant les mécanismes mis à disposition par SimGrid. Nous construisons, à partir des traces, un modèle de plate-forme réaliste essentiel à la simulation des transferts des fichiers. La précision de notre modèle de plate-forme est évaluée en confrontant les résultats de simulations avec la vérité terrain des transferts réels. Nous montrons que le modèle proposé surpasse largement le modèle issu de l’état de l’art pour reproduire la variabilité réelle des transferts de fichiers sur EGI. Ce modèle est ensuite enrichi pour permettre l’analyse de nouveaux scénarios, au-delà de la reproduction des traces d’exécution en production. Enfin, nous évaluons différentes stratégies de réplication de fichiers par simulation en utilisant deux modèles différents: un modèle issu de l’état de l’art amélioré et notre modèle de plate-forme construit à partir des traces. Les résultats de simulations montrent que les deux modèles conduisent à des décisions de réplication différentes, même s’ils reflètent une topologie de réseau hiérarchique similaire. Ceci montre que le réalisme du modèle de plateforme utilisé en simulation est essentiel pour produire des résultats pertinents et applicables aux systèmes réels
Simulation is a powerful tool to study distributed systems. It allows researchers to evaluate different scenarios in a reproducible manner, which is hardly possible in real experiments. However, the realism of simulations is rarely investigated in the literature, leading to a questionable accuracy of the simulated metrics. In this context, the main aim of our work is to improve the realism of simulations with a focus on file transfer in a large distributed production system (i.e., the EGI federated e-Infrastructure (EGI)). Then, based on the findings obtained from realistic simulations, we can propose reliable recommendations to improve file management in the Virtual Imaging Platform (VIP). In order to realistically reproduce certain behaviors of the real system in simulation, we need to obtain an inside view of it. Therefore, we collect and analyze a set of execution traces of one particular application executed on EGI via VIP. The realism of simulations is investigated with respect to two main aspects in this thesis: the simulator and the platform model. Based on the knowledge obtained from traces, we design and implement a simulator to provide a simulated environment as close as possible to the real execution conditions for file transfers on EGI. A complete description of a realistic platform model is also built by leveraging the information registered in traces. The accuracy of our platform model is evaluated by confronting the simulation results with the ground truth of real transfers. Our proposed model is shown to largely outperform the state-of-the-art model to reproduce the real-life variability of file transfers on EGI. Finally, we cross-evaluate different file replication strategies by simulations using an enhanced state-of-the-art model and our platform model built from traces. Simulation results highlight that the instantiation of the two models leads to different qualitative decisions of replication, even though they reflect a similar hierarchical network topology. Last but not least, we find that selecting sites hosting a large number of executed jobs to replicate files is a reliable recommendation to improve file management of VIP. In addition, adopting our proposed dynamic replication strategy can further reduce the duration of file transfers except for extreme cases (very poorly connected sites) that only our proposed platform model is able to capture
APA, Harvard, Vancouver, ISO, and other styles
8

Todeschi, Grégoire. "Optimisation des caches de fichiers dans les environnements virtualisés." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0048.

Full text
Abstract:
Les besoins en ressources de calcul sont en forte augmentation depuis plusieurs décennies, que ce soit pour des applications du domaine des réseaux sociaux, du calcul haute performance, ou du big data. Les entreprises se tournent alors vers des solutions d'externalisation de leurs services informatiques comme le Cloud Computing. Le Cloud Computing permet une mutalisation des ressources informatiques dans un datacenter et repose généralement sur la virtualisation. Cette dernière permet de décomposer une machine physique, appelée hôte, en plusieurs machines virtuelles (VM) invitées. La virtualisation engendre de nouveaux défis dans la conception des systèmes d'exploitation, en particulier pour la gestion de la mémoire. La mémoire est souvent utilisée pour accélérer les coûteux accès aux disques, en conservant ou préchargeant les données du disque dans le cache fichiers. Seulement la mémoire est une ressource limitée et limitante pour les environnements virtualisés, affectant ainsi les performances des applications utilisateurs. Il est alors nécessaire d'optimiser l'utilisation du cache de fichiers dans ces environnements. Dans cette thèse, nous proposons deux approches orthogonales pour améliorer les performances des applications à l'aide d'une meilleure utilisation du cache fichiers. Dans les environnements virtualisés, hôte et invités exécutent chacun leur propre système d'exploitation (OS) et ont donc chacun un cache de fichiers. Lors de la lecture d'un fichier, les données se retrouvent présentes dans les deux caches. Seulement, les deux OS exploitent la même mémoire physique. On parle de duplication des pages du cache. La première contribution vise à pallier ce problème avec Cacol, une politique d'éviction de cache s'exécutant dans l'hôte et non intrusive vis-à-vis de la VM. Cacol évite ces doublons de pages réduisant ainsi l'utilisation de la mémoire d'une machine physique. La seconde approche est d'étendre le cache fichiers des VM en exploitant de la mémoire disponible sur d'autres machines du datacenter. Cette seconde contribution, appelée Infinicache, s'appuie sur Infiniband, un réseau RDMA à haute vitesse, et exploite sa capacité à lire et à écrire sur de la mémoire à distance. Directement implémenté dans le cache invité, Infinicache stocke les pages évincées de son cache sur de la mémoire à distance. Les futurs accès à ces pages sont alors plus rapides que des accès aux disques de stockage, améliorant par conséquent les performances des applications. De plus, le taux d'utilisation de la mémoire à l'échelle du datacenter est augmenté, réduisant le gaspillage de manière globale
The need for computing resources has been growing significantly for several decades, in application domains from social networks, high-performance computing, or big data. Consequently, companies are outsourcing theirs IT services towards Cloud Computing solutions. Cloud Computing allows mutualizing computing resources in a data center, and generally relies on virtualization. Virtualization allows a physical machine, called a host, to be split into multiple guest virtual machines (VMs). Virtualization brings new challenges in the design of operating systems, especially memory management. Memory is often used to speed up expensive disk accesses by storing or preloading data from the disk to the file cache. However memory is a limited and limiting resource for virtualized environments, thus impacting the performance of user applications. It is therefore necessary to optimize the use of the file cache in these environments. In this thesis, we propose two orthogonal approaches to improve application performance through better use of the file cache. In virtualized environments, both host and guests run their own operating system (OS) and thus have their own file cache. When a file is read, the data is present in both caches. However, both OSes use the same physical memory. We hence have a phenomenon called pages duplication. The first contribution aims at alleviating this problem with Cacol, a host cache eviction policy, which is non-intrusive for the VM. Cacol avoids these duplicated pages, thus reducing the memory usage of a physical machine. The second approach is to extend the file cache of VMs by exploiting memory available on other machines in the datacenter. This second contribution, called Infinicache, relies on Infiniband, a high-speed RDMA network, and exploits its ability to read and write remote memory. Implemented directly in the guest cache, Infinicache stores on remote memory pages that have been evicted from its cache. Future accesses to these pages are then be faster than accesses to storage disks, thereby improving application performance. In addition, the datacenter-wide memory utilization rate is increased, reducing overall memory wasting
APA, Harvard, Vancouver, ISO, and other styles
9

Ngo, Ba Hung. "Système de fichiers sémantique basé sur le contexte." Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0008.

Full text
Abstract:
Retrouver facilement et a posteriori des informations personnelles (fichiers, pages de Web, photos, courriels) est, de nos jours, indispensable pour l'ensemble des utilisateurs de bureaux informatiques. Malheureusement, les utilisateurs ne disposent pas de méthode unifié pour retrouver ces informations en provenance de multiples sources. Ils doivent jongler entre navigation dans une arborescence de fichiers traditionnelle et recherche à travers des moteurs d'indexation et de recherche sur le bureau informatique. En complément, les systèmes d'étiquetage sont de plus en plus utilisés pour faciliter la recherche de ressources sur Internet. Parmi les caractéristiques de fichiers personnels (propriétés, contenu, contexte) exploitées par les modèles de recherche de fichiers personnels, les contextes de travail des utilisateurs sont une caractéristique pertinente pour aider un utilisateur à retrouver ses fichiers personnels avec succès. Cette thèse propose un modèle de recherche de fichiers personnels, intitulé recherche de fichiers personnels par contexte, pour un système de fichiers sémantique. Un contexte est un ensemble d'étiquettes que l'utilisateur associe au fichier. Pour retrouver un fichier personnel, un utilisateur décrit le contexte de travail, qu'il pense lié au fichier. Le système calcule les contextes existants les plus proches de la requête et fournit une réponse qui peut être raffinée par navigation. Nous développons notre modèle en améliorant le modèle d'étiquetage traditionnel. À partir d'une relation entre étiquettes et de la popularité des étiquettes, nous proposons des algorithmes permettant d'organiser les étiquettes créées par un utilisateur dans un graphe orienté acyclique (DAGoT- Directed Acyclic Graph of Tags en anglais). Ce DAGoT est utilisé comme modèle de données de base pour mettre en œuvre le modèle de recherche de fichiers personnels par contexte. Ce graphe est utilisé par nos algorithmes pour reconnaître les contextes de travail associés aux fichiers personnels, guider l'utilisateur pour reconstruire un contexte de travail et raffiner les requêtes de recherche de fichiers personnels, retrouver de fichiers personnels par contexte
Organizing the information that we call personal files such as files in a home directory, web pages found on the Internet, images, emails for later revisiting is currently required by many computer users. Several information retrieval models are proposed to fullfil this requirement. Each model is characterized by the types of personal files, their organization and the searching method used. Traditional file systems let a user organize his files into a directory tree and retrieve them later by browsing the directory tree. Desktop seach tools such as Google Desktop or Beagle automatically index file properties and file content (keywords) to provide the user with file retrieval by querying on file properties or on file content. Semantic file systems propose a searching method that combines querying with browsing to give to the users the advantages of both searching methods. For informations on the Internet, tagging systems are more and more used to facilitate the re-finding of these Internet ressources. Among personal file characteristics (properties, content, context) exploited by the above retrieval models, the working context of the user has been proved to be relevant to help a user to successfully retrieve his personal files. This work proposes a model for personal file retrieval, called « context-based model for personal file retrieval ». Our model allows a user to associate his personal files with a working context using tags. To retrieve a personal file, the user must describe the working context corresponding to each file. The searching method in our model gives to the users the advantages of both searching methods: browsing and querying. We develop our model by improving traditional tagging models. Based on tag relationships and popularities, we organize tags created by a user into a directed acyclic graph (DAGoT). This DAGoT is used as the basic data model to realize our context-based model for personal file retrieval. We use this graph to recognize working contexts associated to personal files, guide a user to reconstruct his working contexts, refine the searching requests, and retrieve personal files by context
APA, Harvard, Vancouver, ISO, and other styles
10

Karaoui, Mohamed Lamine. "Système de fichiers scalable pour architectures many-cores à faible empreinte énergétique." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066186/document.

Full text
Abstract:
Cette thèse porte sur l'étude des problèmes posés par l'implémentation d'un système de fichiers passant à l'échelle, pour un noyau de type UNIX sur une architecture manycore NUMA à cohérence de cache matérielle et à faible empreinte énergétique. Pour cette étude, nous prenons comme référence l'architecture manycore généraliste TSAR et le noyau de type UNIX ALMOS.L'architecture manycore visée pose trois problèmes pour lesquels nous apportons des réponses après avoir décrit les solutions existantes. L'un de ces problèmes est spécifique à l'architecture TSAR tandis que les deux autres sont généraux.Le premier problème concerne le support d'une mémoire physique plus grande que la mémoire virtuelle. Ceci est dû à l'espace d'adressage physique étendu de TSAR, lequel est 256 fois plus grand que l'espace d'adressage virtuel. Pour résoudre ce problème, nous avons profondément modifié la structure noyau pour le décomposer en plusieurs instances communicantes. La communication se fait alors principalement par passage de messages.Le deuxième problème concerne la stratégie de placement des structures du système de fichiers sur les nombreux bancs de mémoire. Pour résoudre ce problème nous avons implémenté une stratégie de distribution uniforme des données sur les différents bancs de mémoire.Le troisième problème concerne la synchronisation des accès concurrents. Pour résoudre ce problème, nous avons mis au point un mécanisme de synchronisation utilisant plusieurs mécanismes. En particulier, nous avons conçu un mécanisme lock-free efficace pour synchroniser les accès faits par plusieurs lecteurs et un écrivain. Les résultats expérimentaux montrent que : (1) l'utilisation d'une structure composée de plusieurs instances communicantes ne dégrade pas les performances du noyau et peut même les augmenter ; (2) l'ensemble des solutions utilisées permettent d'avoir des résultats qui passent mieux à l'échelle que le noyau NetBSD ; (3) la stratégie de placement la plus adaptée aux systèmes de fichiers pour les architectures manycore est celle distribuant uniformément les données
In this thesis we study the problems of implementing a UNIX-like scalable file system on a hardware cache coherent NUMA manycore architecture. To this end, we use the TSAR manycore architecture and ALMOS, a UNIX-like operating system.The TSAR architecture presents, from the operating system point of view, three problems to which we offer a set of solutions. One of these problems is specific to the TSAR architecture while the others are common to existing coherent NUMA manycore.The first problem concerns the support of a physical memory that is larger than the virtual memory. This is due to the extended physical address space of TSAR, which is 256 times bigger than the virtual address space. To resolve this problem, we modified the structure of the kernel to decompose it into multiple communicating units.The second problem is the placement strategy to be used on the file system structures. To solve this problem, we implemented a strategy that evenly distributes the data on the different memory banks.The third problem is the synchronization of concurrent accesses to the file system. Our solution to resolve this problem uses multiple mechanisms. In particular, the solution uses an efficient lock-free mechanism that we designed, which synchronizes the accesses between several readers and a single writer.Experimental results show that: (1) structuring the kernel into multiple units does not deteriorate the performance and may even improve them; (2) our set of solutions allow us to give performances that scale better than NetBSD; (3) the placement strategy which distributes evenly the data is the most adapted for manycore architectures
APA, Harvard, Vancouver, ISO, and other styles
11

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Rollin, Florence. "TRANSFERT DE FICHIERS EN MODE MESSAGERIE." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1986. http://tel.archives-ouvertes.fr/tel-00807456.

Full text
Abstract:
Le développement rapide des réseaux et de la télématique a mis en évidence la nécessité de définir des normes tant au niveau du matériel que du logiciel. D'importants travaux sont menés par les organismes nationaux et internationaux de normalisation: CCITT, ISO, AFNOR. Ces derniers sont aujourd'hui soutenus par l'ensemble des constructeurs et utilisateurs du monde de l'informatique et des télécommunications. Le modèle de référence pour l'interconnexion des systèmes ouverts (OSI) est le point de départ d'un ensemble de normes qui définissent le fonctionnement d'un réseau composé de systèmes informatiques hétérogènes répartis à travers le monde. La messagerie X400, appelée également courrier électronique, est sans doute une des premières applications normalisées s'appuyant sur le modèle OSI. De nombreuses autres applications bureautiques et télématiques sont en cours d'étude. En .dehors des problèmes politiques et économiques, on peut dire aujourd'hui que la normalisation se porte bien. * C'est dans l'idée de définit de nouvelles* applications utilisant les services normalisés dont la messagerie X400 que des groupes de travail Architel ont été crées à l'initiative de M. Claude Kintzig. Les applications actuellement étudiées sont le*s suivantes: * TFMM : Transfert de Fichiers en Mode Messagerie. * STMM: Soumission de Travaux en Mode messagerie * CRMM : Conférences Réparties en Mode Messagerie * BIMM : Bases d'Informations en Mode Messagerie Tous ces projets ont en commun deux points. Ils utilisent pour communiquer les services de Transfert de Messages X400. Et ils fonctionnent dans un environnement de systèmes et de machines hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
13

Nguyen, Vu Anh. "Évolutivité et performance de systèmes de fichiers sur grappes d'ordinateurs." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/MQ65590.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Fischer, Nicolas. "Fusion statistique de fichiers de données." Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0483.

Full text
Abstract:
La fusion statistique de fichiers a pour but de rapprocher des données issues des sources différentes. Lorsque des données sont manquantes, les techniques de fusion permettent de transférer de l’information, c’est à dire les variables d’intérêt, contenues dans un certain nombre de fichiers (fichiers donneurs) à un autre fichier(fichier receveur). Cette méthode repose sur l’existence de variables communes, aux différents fichiers. Nous proposons de nouvelles approches de modélisation des variables d’intérêt qualitatives, qui font appel à la régression logistique et la régression PLS. Celle-ci est particulièrement intéressante dans le cas de données fortement corrélées. Ces méthodes ont été appliquées à des données réelles et validées selon plusieurs critères qui permettent de s’assurer de la qualité de l’analyse. Enfin, un système d’aide à la décision performant, fondé sur l’indicateur lift, a été validé opérationnellement
It is the objective of statistical data fusion to put together data emanating from distinct sources. When data are incomplete in files, fusion methodologies enable to transfer information, i. E. Variables of interest which are available in the so called donor files into a recipient file. This technique is based on the presence of common variables between the different files. We introduce new models for qualitative data which involve logistic and PLS regression. The latter is of special interest when dealing with highly correlated data set. These methods have been successfully tested on real data set and validated according to several criteria assessing the quality of statistical analysis. Finally, a decision making process has been operationally validated by using the lift indicator
APA, Harvard, Vancouver, ISO, and other styles
15

Tlili, Assed. "Structuration des données de la conception d'un bâtiment pour une utilisation informatique." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00529509.

Full text
Abstract:
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
APA, Harvard, Vancouver, ISO, and other styles
16

TERRAS, MICHEL. "Telecommunication et imagerie medicale : realisation d'un systeme de gestion d'une base de donnees de fichiers medicaux interfile." Lyon 1, 1993. http://www.theses.fr/1993LYO1M007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Thiébolt, François. "Projet ViSaGe : VisageFS, systèmes de fichiers à fonctionnalités avancées pour grille." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/886/.

Full text
Abstract:
Les grilles informatiques permettent d'envisager des solutions vis à vis des applications de grands challenges. L'accès aux données sur une grille reste cependant complexe tant que l'on ne dispose pas d'un système de fichiers pour grille. ViSaGe adresse la problématique de la mobilisation de ressources de stockage hétérogènes largement disséminées, de l'accès et du partage de données au sein d'environnements de type grille. Les ressources de stockage de la grille sont agrégées sous la forme de ressources virtuelles possédant différentes propriétés (e. G. Hautes performances, réplication. . . ). Ces ressources virtuelles sont mises à disposition de VisageFS, la composante système de fichiers de ViSaGe. VisageFS permet aux applications Posix un accès souple et transparent aux données en tout point de la grille au moyen d'un espace de noms global. Pour améliorer la performance des applications qui s'exécutent sur la grille, nous avons doté VisageFS de fonctionnalités avancées originales qui permettent de contourner la latence via une utilisation transparente des ressources de stockage locales aux nœuds de la grille. Toute application évoluant au sein de l'espace de noms de VisageFS peut ainsi faire un usage transparent de ressources de stockage locales au nœud où elle se trouve. La performance du stockage des données n'est ainsi plus dépendante de la latence d'accès à une ressource potentiellement distante. En dotant ensuite VisageFS d'une sémantique Posix dont la portée peut être ajustée à un niveau site ou nœud vis à vis d'un répertoire, nous réduisons fortement le trafic réseau lié au maintien de la cohérence de l'espace de noms
Nowdays, the grid computing enables solutions to large challenging applications. However, data access in a grid is very complex unless you have a large scale filesystem. The ViSaGe project leverages the needs for spread heterogeneous storage management, data access, and data sharing on nodes over the grid. Storage resources are aggregated within virtual storage spaces featuring different properties (high performance, replication,. . . ). These virtual resources are made available to VisageFS, the ViSaGe project filesystem component. By means of a global namespace, VisageFS enables a seamless access to data everywhere in the grid for Posix applications. In order to improve the performance of applications in the grid, VisageFS features advanced and original functionalities. Those functionalities avoid the use of high latency networks by means of a transparent usage of local storage resources. Every application that evolves within the VisageFS global namespace can make a transparent usage of local storage resources. This way, data storage performances is no more dependant on high latency distant storage resources. Moreover, VisageFS features a Posix consistency that may shrink to a site or a node level on the basis of each directory. Thus, namespace-consistency network traffic is greatly reduced
APA, Harvard, Vancouver, ISO, and other styles
18

Boukhobza, Jalil. "Etude et analyse des performances et simulation des accès aux fichiers sur PC." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0019.

Full text
Abstract:
L'évolution des sous systèmes de stockage et plus particulièrement des disques a été considérable ces dernières années. Cependant, l'écart de performance entre ces dernièrs et les processeurs ne cesse de se creuser. Il est donc essentiel de bien choisir les ressources de stockage secondaire et de les utiliser d'une manière optimale. Pour y parvenir, une compréhension complète du fonctionnement logiciel et matériel des systèmes de stockage ainsi que des interactions entre les différents modules de ce système est indispensable. Nous nous sommes intéressés dans cette thèse à la mesure et à l'analyse des performances, ainsi qu'à la simulation de l'architecture de stockage sur PC. Nous étudions en particulier les systèmes d'E/S sous Windows ou plus exactement les mécanismes d'accès aux fichiers. L'utilisation de certains paramètres dans la fonction d'ouverture et de création de fichiers CreateFile sous Windows détermine la manière avec laquelle se fera l'accès aux fichiers. Le choix d'une stratégie de lecture par anticipation, d'algorithmes d'écriture retardée, de la taille des blocs systèmes ainsi que d'autres paramètres se fait par le système d'après le paramétrage de cette même fonction. Il est donc important de connaître et de comprendre l'influence de ces choix sur les performances des E/S qui sont bien sûr relatives à la charge de travail imposée au système. Le travail effectué dans le cadre de cette thèse consiste à d'abord trouver un moyen efficace de mesure de performance spécifique à Windows, c'est-à-dire que l'on prend en compte les paramètres spécifiques à la fonction CreateFile ainsi que les tailles de requêtes. En effet, nous avons remarqué des fluctuations de performance très importantes selon la stratégie d'accès aux fichiers choisie. Nous avons par la suite développé une méthodologie d'analyse des systèmes de stockage sous Windows grâce à laquelle nous avons identifié les différents paramètres de stockage aidant à la compréhension des performances obtenues. C'est l'analyse des temps de réponse qui a permis cette compréhension. En effet, nous avons remarqué une périodicité des temps de réponse dans le cas des accès à des blocs stockés séquentiellement sur le disque, c'est ce qui nous a permis de commencer l'analyse. Une fois cette analyse effectuée, un simulateur comportemental du système de stockage de Windows a été développé. Il permet entre autres d'évaluer les performances d'une charge de travail sur une architecture donnée pour qu'un utilisateur puisse décider de la stratégie d'accès aux fichiers la plus efficace à adopter avant l'implémentation de son application
The evolution of storage subsystems and more particularly disks was considerable this last decade. However, the performance gap between secondary storage and processor is still increasing. It is therefore crucial to well choose the storage subsystem and to know how to use it in an optimal way. In order to resolve this problem, a complete understanding of the software and hardware behaviours of storage systems as well as the interactions between the different modules of the I/O system is required. We are interested in this thesis in the benchmarking, the performance analysis and the simulation of the storage architecture on PCs. We are particularly studying the I/O system under Windows and the file access mechanisms. The use of some parameters in the file opening and creation function CreateFile under Windows decides on the way files are accessed. The choice of a read ahead algorithm, a lazy write strategy, the system data block size and other parameters is done by the system and depends on those function parameters. It is thus very important to understand the impact of those choices on the I/O performance of the system that are of course relative to the injected workload. The realized work consists of finding at first an efficient way to measure the specific Windows storage system performance depending on the parameters like those specified in the CreateFile function and request sizes. We have noticed very important performance fluctuations relative to the file access strategy used. We have then developed a methodology to analyse Windows storage systems. We have identified thanks to this methodology different parameters that helped us to understand the performance fluctuations we obtained. It is the response time analysis step that allowed this understanding. We observed that response times are periodic when the accessed blocks were stored sequentially on the disk, that was the starting point of our analysis. Once the performance study and analysis done, a behavioral simulator of the Windows storage system has been developed. It allows for instance the performance evaluation of a given workload on defined storage architecture for a user to decide of the most effective access strategy to adopt before implementing his application
APA, Harvard, Vancouver, ISO, and other styles
19

Gardien, Robert. "Réalisation d'un système de gestion de fichiers en langage Pascal pour MODULECO." S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00306216.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Gaillardon, Philippe. "Accès aux fichiers partagés une réalisation sous le système VM /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613738x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Sueur, Dominique. "Algorithmes de redistribution de données : application aux systèmes de fichiers parallèles distribués." Lille 1, 1997. http://www.theses.fr/1997LIL10197.

Full text
Abstract:
L'exploitation du parallelisme necessite une distribution prealable des donnees sur les processeurs. Cette distribution de calcul n'est habituellement pas conforme a la distribution utilisee sur les disques. Chaque operation d'entrees/sorties necessite alors une operation de redistribution pour migrer les donnees des processeurs de calculs aux nuds d'entrees/sorties. En generale, une redistribution est une operation couteuse. Cependant la plupart des redistributions usuelles acceptent une modelisation simplifiee. A partir de ces modeles simples nous avons defini des algorithmes efficaces. Ces algorithmes minimisent le nombre et le volume des messages et utilisent les processeurs de calculs en parallele avec les nuds d'entrees/sorties. Pour tirer profit de toute les ressources, il faut repartir au mieux les messages sur l'ensemble des destinataires. Les redistributions qui generent de nombreux conflits ont ete identifiees. Pour ces cas precis, nous avons calcule un ordonnancement optimal des messages. Les mesures effectuees sur une ferme de processeurs alpha montrent que le gain par rapport a un algorithme enumeratif general est toujours superieur a cinq. A partir de ces algorithmes nous avons construit un systeme de fichiers adapte aux machines paralleles heterogenes et au modele de programmation a parallelisme de donnees. Notre environnement integre notamment la notion de peripherique virtuel distribue. Chaque peripherique parallele est defini par une grille de nuds d'entrees/sorties et par une fonction de distribution semblable a celles utilisees par le langage hpf. Le concept de peripherique virtuel distribue est fondamental car il permet la reutilisabilite. Le programmeur accede a des fichiers logiques, sans avoir a connaitre l'organisation des donnees dans le systeme de fichiers. Les algorithmes de redistributions sont declenches dynamiquement a chaque operation d'entrees/sorties paralleles.
APA, Harvard, Vancouver, ISO, and other styles
22

Baux, André. "DISIX." S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00319473.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Chédin, Maxime. "L’idéalisme de Fichte et la question de la philosophie comme science." Thesis, Paris 4, 2012. http://www.theses.fr/2012PA040028.

Full text
Abstract:
Ce travail s’interroge sur le projet, commun à Fichte et à Hegel, de réaliser la philosophie comme système. Pour eux, la philosophie doit se résigner à n’être qu’une curiosité, ou devenir une science. Faut-il pour cela qu’elle imite les mathématiques, les sciences expérimentales ? Ou peut-on faire l’hypothèse qu’il existe un objet qui par nature échappe au savoir des sciences, et en conséquence, un autre savoir que celui des sciences particulières ? Pour Fichte comme pour Hegel, la philosophie a pour tâche d’explorer ce que les sciences ne peuvent pas connaître, d’être une science des « évidences » ou des « préjugés » qui demeurent présupposés dans les autres domaines du savoir. Mais une science absolue est un savoir qui ne présuppose rien, qui ne s’appuie sur aucun fait donné, qui ne tient aucun objet pour assuré. Que reste-t-il alors ? Pour Fichte, rien d’autre que ce qu’il appelle le Moi, c’est-à-dire la pensée ou la conscience en tant qu’activité libre, autonome, activité qui, dans le savoir philosophique, doit se démontrer comme étant la source créatrice du monde objectif qui nous entoure et que nous considérons spontanément comme indépendant de notre conscience. Voilà l’objet ou le savoir « absolu » dont s’occupe en particulier la Doctrine de la science. C’est pourquoi l’exigence d’absoluité de la philosophie ne peut être satisfaite que dans la figure d’un savoir circulaire, qui reprend et justifie à la fin ce qui semblait n’être à son début qu’un présupposé arbitraire. Pourtant, le système de Fichte a ceci de particulier qu’aussi impeccable que soit la chaîne de ses déductions, il débute par une fêlure qui, loin de se résorber dans la suite, est si bien assumée et travaillée, qu’elle prend finalement la forme d’une contradiction fondamentale qui est à la source de toute notre vie consciente : l’activité libre, qui doit se démontrer comme productrice d’objectivité, est en même temps ce qui par essence est le plus impossible à objectiver…
This work examines the project, common to Fichte and Hegel, to establish philosophy as a system. For them, philosophy must either resign itself to being a mere curiosity, or become a science. Should it then imitate mathematics, experimental sciences? Or can we make the assumption that there is an object that by nature remains beyond the realm of scientific knowledge, and consequently, another knowledge than that of particular sciences? For Fichte as for Hegel, philosophy has the task of exploring what science cannot know, to be a science of “truisms” or “preconceptions” that remain assumed in other areas of knowledge. But an absolute science is a knowledge that assumes nothing, that is not based on any particular fact, that does not regard any object as certain. What is left, then? For Fichte, nothing but what he calls the Ego, that is to say, thought or consciousness as a free, autonomous activity, which in philosophy must be proven as the creative source of the objective world that surrounds us and that we spontaneously consider as independent of our consciousness. That is the object or the “absolute” knowledge that the Doctrine of Science specifically deals with. Therefore the requirement of philosophical absoluteness can only be satisfied through the figure of a circular knowledge, which reproduces and in the end justifies what initially appeared to be nothing more than an arbitrary assumption. However, Fichte’s system is unique in that, as flawless as its chain of deductions can be, it starts with a crack which, far from disappearing thereafter, is so completely accepted and elaborated, that it finally takes the form of a fundamental contradiction which is at the source of our entire conscious life: free activity, which has to be proven as a producer of objectivity, is at the same time, by essence, that which is most impossible to objectify…
APA, Harvard, Vancouver, ISO, and other styles
24

Sibade, Cédric. "Compression de données pour les systèmes de traitement de document grand format." Université de Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0176.

Full text
Abstract:
Les systèmes de traitement de documents proposent de multiples fonctionnalités, telles que l’impression, la copie, la numérisation, auxquelles il est possible d’appliquer différentes opérations de traitements d’image. Dans le cadre des documents grand format et pour des utilisations productives, ces architectures de traitement de données sont en présence de flux massifs d’image. L’étude de l’évolution de tels systèmes permet d’envisager une augmentation des tailles et des débits de ces flux. Cette thèse se propose d’étudier ce que la compression d’image signifie pour une utilisation au sein de ces architectures de traitement de documents grand format. Une étude algorithmique est réalisée ; elle permet d’investiguer les apports et les modes de fonctionnement des méthodes de compression pour ce domaine. Pour être intégrées sur les chemins de données de l’architecture de traitement d’images grand format, une phase d’analyse des impacts sur le système doit être réalisée. Cette étude a donc permis la mise en place d’une méthodologie de description et d’évaluation du comportement du système et de ses flots de données. Un outil de simulation basé sur cette modélisation du comportement a été réalisé. Cette approche aboutit à une proposition d’optimisation du chemin de données existant avec les formats compressés, pour éviter des étapes coûteuses de compression et de décompression. Nous montrons qu’il est recommandé d’étendre ses apports, initialement visant des fins de stockage et de transfert de données, en adaptant les traitements d’images effectués pour un format compressé. Cette étude évalue les possibilités de ces traitements à effectuer sur le flux compressé. Elle prend en compte les transformations actuellement implémentées au sein des systèmes grand format et propose une méthode innovante pour le rendu des images halftone compressées par JPEG
Technical document systems are proposed as multi-functional machines, to allow print, copy or scan works, along with the application of different image processing operations. Targeting wide format documents and in a productive environment, these data processing architectures are managing huge image data flows. By investigating such systems, we emphasize flow size and data rate increasing. This PhD report first investigates the behavior of image compression, within such wide format printing systems data flows. A study targeting compression potentialities for this specific domain is proposed. However, compression solutions definition and implementation must be preceded by an analysis of the behavioral impact for the global system. Within this study, we therefore propose a strategy and a method to perform functional measurements for this system and data flow, including compression solutions. A simulation tool based on this behavioral modelisation has been realised. Confirmed by this approach, we therefore propose to enhance the existing data flows with a compressed format, by avoiding costly compression and decompression operations. It is recommended to extend its benefit, initially targeting only storage and data transfer, to image processing functionalities, by keeping this compressed format. We therefore investigate the potentialities of such compressed-domain processing, in order to propose a more global use for printing and document processing products. An innovative halftoning method applied on JPEG compressed images is proposed in the context of these compressed-domain processing operations
APA, Harvard, Vancouver, ISO, and other styles
25

COYOTTE, ESTRADA HUGO CESAR. "Specification et realisation d'un service de fichiers fiable pour le systeme d'exploitation reparti chorus." Paris 6, 1989. http://www.theses.fr/1989PA066121.

Full text
Abstract:
Cette these est la specification et la realisation d'un service de fichiers fiable (sff) compatible avec unix system v, et totalement exterieure au systeme de base. Ce service a ete construit au-dessus du service de fichiers du systeme d'exploitation chorus. Dans notre approche, la porte symbolique, mecanisme original de chorus, est essentielle pour aboutir a une solution exterieure et pour fournir transparence dans la designation de fichiers fiable. Une porte symbolique constitue l'entree a une arborescence contenant uniquement des fichiers fiables. Une telle arborescence existe pour chaque utilisateur et son chemin d'acces est donne par shome/dup. Le sff permet aux applications (processus unix) d'avoir acces aux fichiers fiables, meme dans le cas de la panne franche d'un site; pour cela chaque fichier fiable est duplique sur deux sites differents. Ainsi meme, une fois qu'un site tombe en panne reprend son fonctionnement, le sff est le responsable de le remettre a niveau automatiquement. La redondance utilisee dans l'implantation de ce service est spatiale-active. Ce service est implante par un groupe de serveurs, chaque serveur est localise sur chaque site du systeme. Chaque serveur sauvegarde suffisament de l'information redondante afin de remettre a niveau le site en panne
APA, Harvard, Vancouver, ISO, and other styles
26

Bedini, Ivan. "Génération automatique d'ontologie à partir de fichiers XSD appliqué au B2B." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0004.

Full text
Abstract:
Computer mediated networks play a central role in the evolution of Enterprise Information Systems. However the integration of data in networked systems still remains harder than it really should be. In our research we claim that Semantic Web technologies, and specifically ontologies, are well suited to integrate this domain to fulfil current approaches and achieve the needed flexibility. For this we address the first step toward the business semantic communication with a system that overcomes some of the existing lacks in the state of the art and provides a new approach for the automatic generation of ontologies from XML sources. We show the usefulness of our system by applying our theory to the B2B domain and producing automatically ontologies of relevant quality and expressiveness
La communication entre systèmes d'information d'entreprise joue un rôle central dans l'évolution des processus d'affaire. Pourtant l'intégration des données reste compliquée : elle exige un effort humain considérable, surtout pour les connexions d'applications appartenant à différentes entreprises. Dans notre recherche nous affirmons que les technologies du Web Sémantique, et plus particulièrement les ontologies, peuvent permettre l'obtention de la flexibilité nécessaire. Notre système permet de surmonter certains manques dans l'état de l'art actuel et réalise une nouvelle approche pour la génération automatique d'ontologies à partir de sources XML. Nous montrons l'utilité du système en appliquant notre théorie au domaine du B2B pour produire automatiquement des ontologies de qualité et d’expressivité appropriée
APA, Harvard, Vancouver, ISO, and other styles
27

Lorrillere, Maxime. "Caches collaboratifs noyau adaptés aux environnements virtualisés." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066036/document.

Full text
Abstract:
Avec l'avènement du cloud computing, la virtualisation est devenue aujourd'hui incontournable. Elle offre isolation et flexibilité, en revanche elle implique une fragmentation des ressources, et notamment de la mémoire. Les performances des applications qui effectuent beaucoup d'entrées/sorties (E/S) en sont particulièrement impactées. En effet, celles-ci reposent en grande partie sur la présence de mémoire libre, utilisée par le système pour faire du cache et ainsi accélérer les E/S. Ajuster dynamiquement les ressources d'une machine virtuelle devient donc un enjeu majeur. Dans cette thèse nous nous intéressons à ce problème, et nous proposons Puma, un cache réparti permettant de mutualiser la mémoire inutilisée des machines virtuelles pour améliorer les performances des applications qui effectuent beaucoup d'E/S. Contrairement aux solutions existantes, notre approche noyau permet à Puma de fonctionner avec les applications sans adaptation ni système de fichiers spécifique. Nous proposons plusieurs métriques, reposant sur des mécanismes existants du noyau Linux, qui permettent de définir le niveau d'activité « cache » du système. Ces métriques sont utilisées par Puma pour automatiser le niveau de contribution d'un noeud au cache réparti. Nos évaluations de Puma montrent qu'il est capable d'améliorer significativement les performances d'applications qui effectuent beaucoup d'E/S et de s'adapter dynamiquement afin de ne pas dégrader leurs performances
With the advent of cloud architectures, virtualization has become a key mechanism for ensuring isolation and flexibility. However, a drawback of using virtual machines (VMs) is the fragmentation of physical resources. As operating systems leverage free memory for I/O caching, memory fragmentation is particularly problematic for I/O-intensive applications, which suffer a significant performance drop. In this context, providing the ability to dynamically adjust the resources allocated among the VMs is a primary concern.To address this issue, this thesis proposes a distributed cache mechanism called Puma. Puma pools together the free memory left unused by VMs: it enables a VM to entrust clean page-cache pages to other VMs. Puma extends the Linux kernel page cache, and thus remains transparent, to both applications and the rest of the operating system. Puma adjusts itself dynamically to the caching activity of a VM, which Puma evaluates by means of metrics derived from existing Linux kernel memory management mechanisms. Our experiments show that Puma significantly improves the performance of I/O-intensive applications and that it adapts well to dynamically changing conditions
APA, Harvard, Vancouver, ISO, and other styles
28

Tao, Thanh Vinh. "Ensuring availability and managing consistency in geo-replicated file systems." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066521/document.

Full text
Abstract:
Les systèmes de fichiers géo-distribués souffrent de latences élevées et de partitions réseau. À cause de cela, et pour assurer une haute disponibilité, de tels systèmes effectuent généralement des mises à jour localement, sans latence, et les propagent ensuite en arrière-plan. Cette réplication optimiste est confrontée à deux défis majeurs : (i) détecter les conflits entre les mises à jour simultanées et les résoudre d'une manière significative pour les utilisateurs, tout en maintenant les invariants d'intégrité du système; et (ii) la prise en charge d'applications qui n'ont pas été conçues pour gérer les anomalies de concurrence. Les systèmes de fichiers géo-distribués optimistes existants ne permettent pas de relever ces défis. Par exemple, Dropbox ne supporte pas les liens matériels. Le système de fichiers AndrewFS échoue sur certains changements de noms de répertoires; et tous les systèmes existants utilisent la résolution automatique des conflits qui viole la sémantique POSIX. Nous présentons notre solution aux problèmes posés ci-dessus dans la conception et la mise en œuvre d'un prototype de système de fichiers géo-distribué, nommé Tofu. Sa conception inclut une nouvelle abstraction de session pour prendre en charge l'API, tout en permettant des mises à jour optimistes. Il est capable de détecter tous les conflits sur ces structures de données et de les résoudre d'une façon que nous pensons que les utilisateurs trouveront raisonnable. Les expériences montrent que Tofu est hautement évolutif et qu'il entraîne des surcoûts linéaires, améliorant ainsi les systèmes académiques et industriels existants
Geo-distributed file systems suffer from high latency and network partitions. Because of this, and to ensure high availability, such systems typically commit updates locally, with no latency, and propagate them in the background. Such optimistic replication faces two major challenges: (i) detecting conflicts between concurrent updates and resolving them in a way meaningful for users, while maintaining system integrity invariants; and (ii) supporting legacy applications that are not prepared to deal with concurrency anomalies. Existing optimistic geo-distributed file systems fall short of addressing the challenges. For instance, Dropbox does not support hard links; Andrew File System fails on some concurrent renaming of directories; and all existing systems use automatic conflict resolution that violates the legacy POSIX semantics. We present our solution to the above problems in the design and implementation of a prototype geo-distributed file system, named Tofu. Its design includes a new session abstraction to support the legacy API, while allowing optimistic updates. Unlike previous approaches, our solution is based on a formal model covering all aspects of a Unix-like file system, including directories, inodes, hard links, etc. It is able to detect all conflicts on those data structures, and resolves them in a way that we believe users will find generally reasonable. Experiments show that Tofu is highly scalable, and incurs linear overhead, improving over existing academic and industrial systems
APA, Harvard, Vancouver, ISO, and other styles
29

Maitre, Bénédicte Metzger Jean-Paul. "Analyse des besoins en indexation des bibliothèques médicales à partir des demandes du Fichier national des propositions Rameau (FNPR)." [S.l.] : [s.n.], 2008. http://www.enssib.fr/bibliotheque-numerique/document-2010.

Full text
Abstract:
Projet professionnel personnel de bibliothécaire : gestion de projet : bibliothéconomie : Villeurbanne, ENSSIB : 2008.
Texte intégral. Résumé en français et en anglais. Bibliogr. f. 47-49. Index.
APA, Harvard, Vancouver, ISO, and other styles
30

Duminuco, Alessandro. "Redondance et maintenance des données dans les systèmes de sauvegarde de fichiers pair-à-pair." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005541.

Full text
Abstract:
La quantité de données numériques produites par les utilisateurs, comme les photos, les vidéos et les documents numériques, a énormément augmenté durant cette dernière décennie. Ces données possèdent une grande valeur et nécessitent d'être sauvegardées en sécurité. D'une part, les solutions basées sur les DVDs et les disques durs externes, bien que très communes, ne fournissent pas un niveau suffisant de fiabilité. D'autre part les solutions basées sur de serveurs centralisées sont très coûteuses. Pour ces raisons, la communauté de recherche a manifesté un grand intérêt pour l'utilisation des systèmes pair-à-pair pour la sauvegarde de donnés. Les systèmes pair-à-pair représentent une solution intéressante grâce à leur capacité de passage à l'échelle. En effet, la capacité du service augmente avec la demande. La conception d'un réseau de sauvegarde de fichiers pair-à-pair est une tâche très complexe et présente un nombre considérable de défis. Les pairs peuvent avoir une durée de connexion limitée et peuvent quitter le système à un taux qui est considérablement plus élevé que dans le cas des systèmes de stockage centralisés. Notre intérêt se concentre sur la manière de fournir efficacement du stockage de données suffisamment fiable en appliquant des schémas de redondance appropriés et en adoptant des bons mécanismes pour maintenir une telle redondance. Cet effort n'est pas négligeable, dans la mesure où la maintenance du stockage de données dans un tel système exige des ressources importantes en termes de capacité de stockage et de largeur de bande passante. Notre contribution se porte sur deux aspects. Premièrement, nous proposons et étudions des codes correcteurs pour la redondance capables de combiner l'efficacité en bande passante de la réplication à l'efficacité en stockage des codes correcteurs classiques. En particulier, nous présentons et analysons deux nouvelles classes de codes: Regenerating Codes et Hierarchical Codes. Deuxièmement, nous proposons un système de réparation, nommé "adaptive proactive repair scheme", qui combine l'adaptabilité des systèmes réactifs avec l'utilisation régulière de la bande passante des systèmes proactifs, en généralisant les deux approches existantes.
APA, Harvard, Vancouver, ISO, and other styles
31

Peyrouze, Nadine. "Conception et realisation d'un systeme de gestion de fichiers nfs efficace et sur de fonctionnement." Rennes 1, 1995. http://www.theses.fr/1995REN10118.

Full text
Abstract:
Ce document a pour objet la conception et la realisation d'un systeme de gestion de fichiers (sgf) nfs (network file system) efficace et sur de fonctionnement. Ces deux proprietes sont en effet habituellement difficilement conciliables. Pour reduire le goulot d'etranglement du aux entrees/sorties disque, le sgf repose sur l'utilisation d'un cache des fichiers pour traiter rapidement les requetes des clients en memoire volatile plutot que sur disque. Si le cache augmente les performances du sgf, il a le defaut d'etre vulnerable aux defaillances du serveur puisque celles-ci provoquent la perte des modifications conservees en cache volatile. Il est donc a priori necessaire de reporter systematiquement et immediatement les mises a jour sur disque pour resister aux defaillances. Afin d'offrir un compromis acceptable entre efficacite et surete de fonctionnement du service, nous proposons une solution pour le systeme nfs basee sur l'utilisation d'un cache stable. Le contenu du cache stable a les proprietes d'etre accede rapidement, d'etre modifie atomiquement et d'etre accessible malgre l'occurence d'une defaillance. Ces proprietes sont mises en uvre par la gestion de copies des donnees en memoire volatile d'une machine primaire et d'une machine de secours, mises a jour suivant un protocole de validation. Le cache stable permet d'implementer la surete de fonctionnement du service sans degrader ses performances: (i) l'etat du sgf est modifie atomiquement en reportant les modifications sur la machine de secours a travers un lien de communication rapide plutot que sur disque ; (ii) l'etat du sgf est disponible en memoire de la machine de secours ce qui accelere la reprise du service en cas de defaillance de la machine primaire. L'utilisation du cache stable autorise en outre l'accumulation des modifications sur l'etat logique des fichiers en cache afin de les reporter de maniere groupee sur leur etat physique. Cette technique de report groupe asynchrone permet d'optimiser la gestion du stockage en effectuant des ecritures de grande taille au lieu de multiples petites ecritures sur les fichiers. Nous avons realise, puis evalue, un prototype du systeme propose pour une plate-forme distribuee composee de stations de travail sun et du systeme unix. Les resultats obtenus sont satisfaisants puisque le prototype s'est montre, dans certains cas, jusqu'a deux fois plus rapide que le serveur nfs standard de sun
APA, Harvard, Vancouver, ISO, and other styles
32

Picconi, Fabio. "Gestion de la persistance et de la volatilité dans le système de fichiers pair-à-pair Pastis." Paris 6, 2006. http://www.theses.fr/2006PA066627.

Full text
Abstract:
Les Tables de Hachage Distribuées (Distributed Hash Tables, ou DHT, en anglais) permettent la construction de services de stockage persistant, hautement disponible, et passant à l’échelle. Cependant, leur interface put/get s’avère assez limitée : la granularité des accès se fait au niveau fichier, il existe un seul espace d’adressage plat, et la cohérence des répliques doit souvent être gérée par l’application. En revanche, un système de fichiers pair-à-pair fournit une interface plus riche et de haut niveau, tout en garantissant la compatibilité avec les applications existantes. Dans la première partie de cette thèse nous présentons Pastis, un nouveau système de fichiers pair-à-pair reposant sur la DHT PAST. Contrairement aux systèmes précédents, Pastis est complètement décentralisé et supporte un très grand nombre d’utilisateurs en lecture-écriture. D’autre part, il permet aux utilisateurs de choisir entre deux modèles de cohérence en fonction des besoins de l’application. Enfin, Pastis garantit l'authenticité et l'intégrité des données au travers de mécanismes standard de cryptographie. Notre évaluation expérimentale montre que Pastis a des performances comparables ou supérieures à celles des systèmes précédents. Dans la seconde partie nous présentons une étude sur la pérennité des données dans les systèmes de stockage pair-à-pair. Des travaux récents ont proposé d’estimer la probabilité de perte d’une donnée en utilisant un modèle basé sur des chaînes de Markov. Or, les paramètres du modèle proposées jusqu’à maintenant produisent des résultats très différents par rapport à ceux mesurés par la simulation. Nous présentons une nouvelle expression qui permet d’obtenir ces paramètres avec plus de précision, ce qui se traduit par une estimation plus réaliste de la probabilité de perte des données du système.
APA, Harvard, Vancouver, ISO, and other styles
33

N'Guessan, Assi. "Conception de logiciels destinés à des utilisateurs non-informaticiens : cas d'un système relationnel de gestion de fichiers." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090065.

Full text
Abstract:
Le système relationnel développé permet, à une grande partie des non professionnels de l'informatique, de créer et de manipuler de grands volumes de données pouvant comporter entre elles des liens logiques. Ces liens sont mis en œuvre dynamiquement au moment des demandes d'accès aux données, grâce a un langage non procédural et interactif de gestion de données.
APA, Harvard, Vancouver, ISO, and other styles
34

Oulc'hen, Enora Metzger Jean-Paul. "Mise en place d'un dispositif d'aide aux catalogueurs pour l'enrichissement des fichiers d'autorité RAMEAU." [S.l.] : [s.n.], 2008. http://www.enssib.fr/bibliotheque-numerique/document-2075.

Full text
Abstract:
Projet professionnel personnel de bibliothécaire : gestion de projet : bibliothéconomie : Villeurbanne, ENSSIB : 2008.
Texte intégral. Résumé en français et en anglais. Bibliogr. f. 49-51. Index.
APA, Harvard, Vancouver, ISO, and other styles
35

Lottiaux, Renaud. "Gestion globale de la mémoire physique d'une grappe pour un système à image unique : : mise en oeuvre dans le système Gobelins." Rennes 1, 2001. http://www.theses.fr/2001REN10097.

Full text
Abstract:
Cette thèse portent sur la conception d'un système d'exploitation dédié aux grappes d'ordinateurs. L'objectif est de fournir un système à image unique au dessus d'une grappe. Pour cela, nous proposons un mécanisme logiciel appelé conteneur, fondé sur une gestion globale de la mémoire physique des noeuds d'une grappe. Ce mécanisme permet de stocker et de partager des données entre les noyaux d'un système d'exploitation hôte. Les conteneurs sont intégrés au sein du système hôte grâce à un ensemble de lieurs, qui sont des éléments logiciels intercalés entre les gestionnaires de périphériques et les services systèmes. Il est ainsi possible de réaliser très simplement une mémoire virtuelle partagée, un système de caches de fichiers coopératifs, un système de gestion de fichiers distribués et de simplifier de manière significative les mécanismes de migration de processus. Un système d'exploitation nommé Gobelins a été réalisé sur la base d'un système Linux afin de valider notre concept.
APA, Harvard, Vancouver, ISO, and other styles
36

Cassagne, Agnès. "Une idée d'un système de la liberté : Fichte et Schelling /." Paris ; Budapest ; Torino : l'Harmattan, 2005. http://catalogue.bnf.fr/ark:/12148/cb399709661.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Hubschwerlin, Marie-Odile. "Utilisation des données continues dans le système d'information Schengen : analyse des tensions entre système d'information Schengen, système commun, et disparités dans l'utilisation de ce système." Strasbourg, 2010. http://www.theses.fr/2010STRA4010.

Full text
Abstract:
Les objectifs stratégiques du Système d’Information Schengen (SIS) sont la préservation de l’ordre et de la sécurité publics, la garantie de la bonne application des dispositions sur la libre circulation ainsi que la gestion des flux migratoires. Les textes relatifs aux personnes pouvant signaler, consulter les données contenues dans le SIS permettent une réalisation théorique de ces objectifs. Il en est de même quant aux personnes, objets pouvant être signalés et aux conséquences du signalement. Or, l’exemple du Royaume-Uni - et son utilisation « personnelle » du fichier - remet en cause la réalisation effective de ces objectifs et crée des tensions. Cette situation n’est pas isolée, cette pratique est commune à l’ensemble des États membres, qui font prévaloir leurs intérêts sur les objectifs stratégiques du SIS. L’efficacité du SIS est ainsi mise à mal. Les faits montrent qu’une utilisation homogène du SIS par les États Schengen permet l’atteinte effective de ses objectifs. Comme ces objectifs sont primordiaux pour les États, ces succès rendent le SIS attractif. Nous avons même pu constater avec l’exemple suisse que le SIS est indispensable. Ses problèmes d’efficacité ne sauraient néanmoins perdurer. Le SIS II est-il une solution ? Quid du regroupement du SIS avec EURODAC et le VIS ? L’augmentation du nombre de données, les améliorations technologiques, entre autres, ne mettent pas un terme aux problèmes de qualité des données, de disparités dans l’utilisation du SIS, de méconnaissance du système. Les tensions persistent. L’efficacité du SIS découlant de l’homogénéité d’utilisation, annihiler les tensions passe par la formation de ses personnels-utilisateurs
The Schengen Information System’s (SIS) strategic objectives are the protection of public order and security; to ensure the good implementation of the provisions on free movement as well as the management of migratory flows. Legislative acts telling us who are the people that can enter an alert in the system and consult the available data on it allow for a theoretical achievement of these objectives. The same goes for people and objects that can be subject to an alert and the consequences of such an alert. Yet, the example of the United Kingdom - and its "personal" use of the file - undermines the realization of these objectives and creates tensions. This is not an isolated case; this practice is common to all Member States who give prevalence to their interests over strategic objectives of the SIS. The SIS efficiency could therefore be jeopardized. Facts show that its objectives could only be successfully achieved through a homogeneous use of the SIS (by the Schengen Member States). As these objectives are crucial for states, its successes only make the SIS more attractive. The Swiss example clearly illustrates that the SIS is essential. Efficiency problems cannot carry on. Can the SIS II be a solution? What about grouping together the SIS with Eurodac and the VIS? Among other things the increase of data, technological improvements do not end issues with data quality, disparity of the use of SIS and unfamiliarity with the system. Tensions continue. The success of the SIS relies on a homogenous use; in order to wipe out tensions training of its users is essential
APA, Harvard, Vancouver, ISO, and other styles
38

Iksal, Sébastien. "Spécification déclarative et composition sémantique pour des documents virtuels personnalisables." Paris, EHESS, 2002. http://www.theses.fr/2002EHES0144.

Full text
Abstract:
Le Document Virtuel Personnalisable est une approche intéressante pour personnaliser, réutiliser et automatiser l’accès à l’information. Un DVP compose dynamiquement un document réel à partir d’informations provenant de sources diverses qui satisfont au mieux à des besoins utilisateurs. En effet, les utilisateurs ne sont pas tous intéressés par les mêmes informations, ils n’ont pas les mêmes attentes, acquis et connaissances. Toutes ces caractéristiques sont représentées au sein d’un modèle utilisateur. Nous proposons une approche de conception de DVP qui repose d'une part sur un principe de spécification déclarative des processus de sélection, d’organisation et d’adaptation par un auteur, ce qui renforce la cohérence sémantique du document généré, et d’autre part sur un principe de composition d’un hypermédia pour un lecteur particulier. Cette approche est fondée sur quatre ontologies. Il s’agit d’une approche qui repose sur la réutilisation de fragments d’information et qui est elle-même réutilisable
The Adaptive Virtual Document is a very convenient approach to adapt, reuse and automate information access on the Web. An AVD creates a real document on the fly with informations coming from various sources and according to user’s needs. Every users are not concerned by the same information, they don’t have the same objectives, experience, background and knowledge. All theses user’s features are represented in a user model. We propose a new approach for AVD in two parts. First, an author creates a generic document which is a declarative specification for the processes of selection, organization and adaptation, this author oriented specification increases the semantic coherence of a document. Next, the system composes on the fly an hypermedia from this generic document and according to a particular reader. This approach is based on four ontologies. Our approach is based on the reusability of information on the Web, and it was thought in order to be reusable in different contexts
APA, Harvard, Vancouver, ISO, and other styles
39

Almousa, Almaksour Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : Application à la reconnaissance de gestes manuscrits." Rennes, INSA, 2011. http://www.theses.fr/2011ISAR0015.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. Nous proposons une approche incrémental pour l’apprentissage des systèmes d’inférence floue de type Takagi-Sugeno. Cette approche comprend d’une part, une adaptation des paramètres linéaires associés aux conclusions des règles par méthode des moindres carrés récursive, et d’autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d’appartenance suivant l’évolution de la densité des données dans l’espace de classification. La méthode proposée résout les problèmes d’instabilité d’apprentissage incrémental de ce type de systèmes grâce à un paradigme global d’apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des benchmarks connus, en mettant en évidence sa capacité d’apprentissage à la volée de nouvelles classes
We present in a new method for the conception of evolving and customizable classification systems. We propose an incremental approach for the learning of classification models based on first-order Takagi-Sugeno (TS) fuzzy inference systems. This approach includes, on the one hand, the adaptation of linear consequences of the fuzzy rules using the recursive least-squares method, and, on the other hand, an incremental learning of the antecedent of these rules in order to modify the membership functions according to the evolution of data density in the input space. The proposed method resolves the instability problems in the incremental learning of TS models thanks to a global learning paradigm in which antecedent and consequents are learned in synergy, contrary to the existing approaches where they are learned separately. The performance of our system had been demonstrated on different well-known benchmarks, with a special focus on its capacity of learning new classes
APA, Harvard, Vancouver, ISO, and other styles
40

Khelifi, Mohammed Nedjib. "Méthode de conception d'un système d'information par ébauche systémique et aide à la décision." Paris 8, 1993. http://www.theses.fr/1993PA080795.

Full text
Abstract:
L'ebauche systemique est devenu un passage oblige d'une conception d'un systeme realisee dans une perspective de changement, elle est, dans cette etude, presentee comme une aide pedagogique aux futurs cadres (charges d'etude) dans divers domaines tels que la communication, sociale, l'economie, le commerce etc. . . Elle est destinee a l'amelioration des comportements de communication en situation d'entretiens individuels ou en collectant les informations afin d'atteindre efficacement l'objectif. Notre objectif est de munir le charge d'etude d'outils, d'arguments, de regles, de criteres et de parametres qui lui permettront, avec l'aide d'un informaticien, de conduire un projet d'informatisation. Le concept d'information s'est enrichi et se precise, de jour en jour, grace au developpement des techniques informatiques. La modelisation s'applique a toute representation ou transcription abstraite d'une realite concrete et qu'elle joue, au niveau scientifique, un role essentiel dans la recherche grace a des differentes representations. Une recherche theorique permettant d'apporter une solution au probleme de modelisation totale du systeme d'information permettrait d'envisager, pour l'avenir, une methodologie de conception de l'ensemble du systeme d'information dont les resultats pratiques seraient la conception et la structuration de la base de donnees
The systemic preliminary model has become a due way for the conception of a system realised in a perspective of change. In this research work, it is presented as a pedagogic help for future managers in various fields such as communication, economics, business, sociology etc. . . It is destined to improve the communication behaviours during individual interviews or to collect information in order to reach the aim in the most efficient way. Our aim (goal) is to give the survey manager tools, arguments, rules, criteria and parameters to enable him with the assistance of a programmer, to get through and to achieve a project. The concept of information has improved and gets more precise from day to day tanks to the developement of programming technics keeping in mind the fact that modelisation applies to every representation or abstract transcription of a concrete reality and plays at the scientific level an essential part in the research thanks to various representations. A theoretical research capable of solving the problem of complete modelisation of the system of information would allow to foresee for the future a conception methodology of the complete information system, the conception and structuration of overtated database
APA, Harvard, Vancouver, ISO, and other styles
41

Fraunholz, Christoph [Verfasser], and W. [Akademischer Betreuer] Fichtner. "Market Design for the Transition to Renewable Electricity Systems / Christoph Fraunholz ; Betreuer: W. Fichtner." Karlsruhe : KIT-Bibliothek, 2021. http://d-nb.info/1235072347/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Bosco, Michel. "Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Full text
Abstract:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
43

Lombard, Pierre. "NFSP : Une solution de stockage distribué pour architectures grande échelle." Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00004373.

Full text
Abstract:
Le stockage de données utilise souvent des systèmes se caractérisant par une grande intrusivité : ceux-ci requièrent de nombreuses modifications logicielles, voire parfois même matérielles, pour être déployés et utilisés. Notre solution consiste à offrir un stockage distribué logiciel pour architectures de type grappes de nature faiblement intrusive dans la mesure où le protocole standard omni-présent du monde Unix, NFS, est utilisé. L'approche retenue se caractérise par une séparation de la gestion des méta-données et des données permettant ainsi de répartir la charge d'entrées/sorties et d'obtenir de meilleures performances. L'ajout de redondance permet aussi de disposer à moindre coût de stockage distribué encore plus performant et plus sûr. Le développement d'outils de transfert efficace inter-grappes et d'un système distribué de fichiers à plus grande échelle a permis de valider notre approche.
APA, Harvard, Vancouver, ISO, and other styles
44

Sendroiu, Elena. "Topos, un modèle pour l'informatique." Paris 7, 2004. http://www.theses.fr/2004PA077163.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Rejeb, Hejer. "Étude des problèmes d’ordonnancement sur des plates-formes hétérogènes en modèle multi-port." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14299/document.

Full text
Abstract:
Les travaux menés dans cette thèse concernent les problèmes d'ordonnancement sur des plates-formes de calcul dynamiques et hétérogènes et s'appuient sur le modèle de communication "multi-port" pour les communications. Nous avons considéré le problème de l'ordonnancement des tâches indépendantes sur des plates-formes maîtres-esclaves, dans les contextes statique et dynamique. Nous nous sommes également intéressé au problème de la redistribution de fichiers répliqués dans le cadre de l'équilibrage de charge. Enfin, nous avons étudié l'importance des mécanismes de partage de bande passante pour obtenir une meilleure efficacité du système
The results presented in this document deal with scheduling problems on dynamic and heterogeneous computing platforms under the "multiport" model for the communications. We have considered the problem of scheduling independent tasks on master-slave platforms, in both offline and online contexts. We have also proposed algorithms for replicated files redistribution to achieve load balancing. Finally, we have studied the importance of bandwidth sharing mechanisms to achieve better efficiency
APA, Harvard, Vancouver, ISO, and other styles
46

Dalle, Olivier. "Techniques et outils pour les communications et la répartition dynamique de charge dans les réseaux de stations de travail." Phd thesis, Université de Nice Sophia-Antipolis, 1999. http://tel.archives-ouvertes.fr/tel-00712754.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux techniques et outils qui permettent de concevoir et d'opti- miser les applications parallèles et réparties sur les réseaux et grappes de stations de travail. Le premier problème abordé est celui de la répartition dynamique de charge en environnement fortement hétérogène : pour répartir dynamiquement et efficacement la charge d'une application répartie, il faut (i) être en mesure d'évaluer et de comparer la disponibilité des différentes machines du réseau et (ii) savoir mettre ces informations en correspondance avec les besoins en ressources des tâches de l'application. Pour cela, nous proposons une méthodologie de modélisation empirique du comportement des éléments d'un réseau de stations de travail face à la charge. Cette méthodologie nous permet de construire des indica- teurs de charge multi-dimensions et multi-critères. Pour mettre cette méthodologie en pratique, nous avons conçu LoadBuilder, une plate-forme répartie d'expérimentation. Le deuxième problème abordé est celui de l'accès à des mécanismes et protocoles de communication multipoints fiables et ordonnés, à partir d'un système d'exploitation UNIX. Pour répondre à ce besoin des applications réparties, nous proposons une solution originale, le sys- tème de fichiers virtuel MPCFS. Ce système de fichiers permet la création de groupes de communication dynamiques et la réalisation de communications multipoints dans ces groupes, au travers de simples manipulations de fichiers et répertoires. Nous avons développé un prototype de ce système, qui peut être chargé dynamiquement dans le noyau du système Linux 2.0.
APA, Harvard, Vancouver, ISO, and other styles
47

Zaghar, Halima. "Mise à jour de bases de données géographiques par fusion de sources à l'aide de transformations correctives élastiques sous contraintes : raboutement de cartes et insertion de portion dans un fond." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0014.

Full text
Abstract:
Le secteur de l'information géographique. Qui est actuellement en pleine expansion, contribue à la constitution de bases de données localisées provenant de sources différentes. De plus, afin d'assurer la pérennité des systèmes d'informations, il est impératif d'effectuer des mises à jour régulières. Si la mise à jour d'une base de données alphanumériques est une opération tout à fait simple et maîtrisée de nos jours. Il n'en est pas de même pour celle d'une base de données géographiques. Les cas de mises à jour peuvent provenir de l'évolution des objets réels ou de l'évolution des connaissances. Notre travail se situe dans le cadre de la mise à jour de base de données géographiques. Nous nous sommes efforcée à apporter des solutions à deux cas courants de mises à jour, le premier étant celui de l'extension de couverture où il s'agit de faire le raboutement de deux cartes représentant deux zones (quartiers, communes. Arrondissement, etc. . . ) géographiquement voisines et le second celui de l'insertion d'une portion dans un fond existant auparavant dans la base de données. L'originalité de nos solutions réside dans le fait que l'on ne se contente pas d'appliquer les méthodes de recalage utilisées comme dans le passé. En effet, celles-ci consistaient à effectuer des dilatations, rotations ou translations pour intégrer les documents sources dans le même système de coordonnées en se basant sur les positions des points de contrôle. Cependant, ces opérations donnaient des résultats insatisfaisants en entraînant la déformation de certains objets cartographiques et en ne respectant pas toujours la topologie après correction. Afin d'éviter ces problèmes, nous proposons d'effectuer des transformations correctives élastiques homéomorphes en tenant compte des contraintes portant sur ces objets, lesquelles peuvent être des contraintes de position, de longueur, d'orientation, de superficie, de parallélisme etc … Ainsi, pour le raboutement de cartes, les déplacements des objets situés dans une zone d'élasticité dépendront également de celui des points homologues ainsi que de leur proximité par rapport à la frontière. De même, en ce qui concerne l'intégration de portions, le déplacement des objets sera lié à celui des points homologues et de leur proximité par rapport au périmètre de la portion
[However if updating a conventional database (e. G. Changing the delive1y address in a custom file) can be done by means of a SQL-type language or via a form interface, in the domain of geographic databases, updating means different things and cannot be performed easily. The essential reason is because updating information is not only elementary, but rather coming from different sources such as new/y made measures, aerial photos, scanned maps and so on. In this work, we will give an overview of two problems of updating. The first updating is extension of the coverage; in other words. When we have to fusion maps of two neighbouring zones whose boundaries do not meet, if is necessary ta select control points and to perform rubber-sheeting at the vicinity of the boundary based on those control points. The second updating consist in integration of a new portion in database. For this, we based on position of control points and Finite Element Method. ]
APA, Harvard, Vancouver, ISO, and other styles
48

GAILLARD, ERIC. "Etude pour une architecture de reseau departemental heterogene basee sur tcp/ip et realisation d'un systeme de transfert de fichiers dans les conditions d'heterogeneite." Paris 11, 1990. http://www.theses.fr/1990PA112156.

Full text
Abstract:
L'interconnexion de systemes heterogenes constitue un probleme majeur dans le secteur actuel des reseaux informatiques. Cette these propose des solutions pour la federation en tcp/ip (transmission control protocol) d'un reseau de systemes heterogenes et pour le developpement d'une application de transfert de fichier utilisant les services de tcp. L'integration de tcp/ip a necessite la definition d'un modele logiciel basee sur l'implementation de ces protocoles effectuee par le mit (massassuchets institute of technology). L'application de transfert de fichier utilise le protocole sftp (simple file transfer protocol) et s'appuie sur les services de tcp, elle a ete developpee sur les systemes unix, ms/dos et sintran avec des interfaces de transport differentes (interface socket par exemple). Les solutions techniques relatives au developpement du transfert de fichier sont exposees ainsi que des utilisations potentielles du logiciel realise. Diverses mesures effectuees sur le reseau heterogene sont presentees et commentees
APA, Harvard, Vancouver, ISO, and other styles
49

Soula, Mathieu. ""Tout était à faire", mise en place du système fiscal révolutionnaire dans le département de l'Hérault : l'exemple des contributions foncières et mobilières, 1789-an XII." Toulouse 1, 2004. http://www.biu-toulouse.fr/uss/scd/theses/fiches-pdf/soula-m/index.htm.

Full text
Abstract:
Le 17 juin 1789, tout était à faire : l'abandon annoncé du système fiscal de la monarchie absolue laissait un vide à combler. Tout semblait possible, tous les espoirs pouvaient être réalisés. L'Assemblée constituante tenta de mettre en place un système fiscal répondant aux attentes des cahiers de doléances. Il importait au législateur de créer une fiscalité uniforme, respectueuse du principe d'égalité. Néanmoins, l'application dans les départements, et notamment dans celui de l'Hérault, rencontra de nombreuses difficultés : des lois imprécises qui réduirent la portée du principe d'égalité, des contextes économiques, politiques et sociaux défavorables et des administrations locales insatisfaites par la baisse des impôts. De 1791 à l'an III, les recouvrements accumulèrent des retards, ne permettant pas une pleine efficacité du nouveau système fiscal. Avec le Directoire, s'est ouverte une nouvelle phase : l'aspect économique des impôts prévalut. Il n'était plus question d'établir la stricte proportionnalité mais de mettre l'accent sur le rendement. Les ébauches de réformes commencées dès l'an IV ont été achevées sous le Consulat. Durant toute la période, c'était au niveau local qu'il fallait rechercher les tentatives les plus franches et les plus répétées pour concrétiser les idéaux fiscaux de 1789. Dans le département de l'Hérault, contribuables et administrateurs locaux ont été vigilants à concilier les exigences des gouvernements avec la proportionnalité et la baisse des contingents
June 17, 1789, everything had yet to be done: the announced abandonment of the Absolute Monarchy's tax system left a gap to be filled. Everything seemed possible ; every hope could be carried out. The National Constituent Assembly attempted to set up a tax system responding to the expectations stated in the registers of grievances. The legislator's priority was to create a uniform taxation, respectful of the Equality principle. Nevertheless, the implementation of this tax system in the departments, and especially in Hérault, encountered many difficulties : laws were too vague and diminished the impact of the Equality principle ; the economic, political and social contexts were unfavourable; local governments were dissatisfied by the lowering of taxes. From 1791 to Year III, delays built up in the collection of taxes, preventing the full effectiveness of the new tax system. With the Directory, a new phase opened : The economic aspect of taxes prevailed. Establishing strict proportionality was no longer foreseen and instead stress was put on yield. The reforms' outlines started in Year IV were completed under the Consulate. During all that period, the most honest and repeated attempts to make concrete the tax ideals of 1789 have to be searched at a local level. In the department of Hérault, taxpayers and local administrators were careful to match the requirements of the governments with proportionality and the decrease of quotas
APA, Harvard, Vancouver, ISO, and other styles
50

Grosos, Philippe. "Système et subjectivité : étude sur la genèse et la disparition du concept de système." Paris 10, 1994. http://www.theses.fr/1994PA100169.

Full text
Abstract:
Ce travail consiste en une analyse des raisons de la genèse et de la disparition du concept de système en philosophie. Prenant appui sur le constat, relayé par Heidegger, de l'absence de revendication présente de cette configuration singulière du savoir, il en reformule l'exigence première afin de comprendre ce que métaphysiquement elle a pu engager, et ce qui progressivement aura pu en elle paraitre intenable. La première partie dégage une structure formelle du système commune à l'ensemble des penseurs de l'idéalisme allemand, de 1789 à 1800, et dès les premiers post-kantiens. Or cette systématicité, même à s'appuyer sur la subjectivité, reste trop extérieure à la chose-même, si bien que ces deux concepts n'apparaissent que comme des conditions de possibilités du système, non comme ses conséquences. La seconde partie, s'appuyant sur l'analyse de Heidegger, reprend le questionnement en dégageant le sens ontologique. Ainsi le système est-il une ontologie de la présence à soi absolue, que l’hégélianisme accomplit sans réserve. La troisième partie, en un premier moment, montre qu'au sein de l'idéalisme allemand, les considérations théologiques de Fichte et de Schelling ont progressivement mené a un retrait de l'ontologie de la présence, et donc du système. En un second moment, elle insiste sur la critique proprement phénoménologique qu'en fait Heidegger, et ouvre à une philosophie hors-système
This work is an analysis of the reasons for the genesis and disappearance of the concept of system in philosophy. Starting first from the fact that as Heidegger had noticed - this particular form of knowledge is nowhere claimed today, it reformulates its primary exigencies, in order to understand what it may have involved metaphysically and what may afterwards have appeared progressively untenable. The first part deliveates a formal structure of the system common to all the thinkers who built German, idealism, from 1789 to 1800, and from the first pre-Kantians onwards. Now this systematicity, even when it leans on subjectivity, remains too exterior to the thing by itself, so that these two concepts appear only as conditions that render the system possible, not as its consequences. The second part, relying on Heidegger’s analysis, resumes the search and brings out its ontological meaning. In this light, the system is ontology of the absolute presence to itself, which is accomplished unreservedly by Hegelianism. The third part, in first stage, shows that within German idealism the theological reflections of Fitche and Schelling gradually led to a retreat of the ontology of presence, and therefore of the system. In a second stage, it dwells on Heidegger’s properly phenomenological critique, and paves the way for a philosophy beyond any system
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography