To see the other types of publications on this topic, follow the link: Systèmes de gestion de fichiers.

Dissertations / Theses on the topic 'Systèmes de gestion de fichiers'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes de gestion de fichiers.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rollin, Florence. "TRANSFERT DE FICHIERS EN MODE MESSAGERIE." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1986. http://tel.archives-ouvertes.fr/tel-00807456.

Full text
Abstract:
Le développement rapide des réseaux et de la télématique a mis en évidence la nécessité de définir des normes tant au niveau du matériel que du logiciel. D'importants travaux sont menés par les organismes nationaux et internationaux de normalisation: CCITT, ISO, AFNOR. Ces derniers sont aujourd'hui soutenus par l'ensemble des constructeurs et utilisateurs du monde de l'informatique et des télécommunications. Le modèle de référence pour l'interconnexion des systèmes ouverts (OSI) est le point de départ d'un ensemble de normes qui définissent le fonctionnement d'un réseau composé de systèmes informatiques hétérogènes répartis à travers le monde. La messagerie X400, appelée également courrier électronique, est sans doute une des premières applications normalisées s'appuyant sur le modèle OSI. De nombreuses autres applications bureautiques et télématiques sont en cours d'étude. En .dehors des problèmes politiques et économiques, on peut dire aujourd'hui que la normalisation se porte bien. * C'est dans l'idée de définit de nouvelles* applications utilisant les services normalisés dont la messagerie X400 que des groupes de travail Architel ont été crées à l'initiative de M. Claude Kintzig. Les applications actuellement étudiées sont le*s suivantes: * TFMM : Transfert de Fichiers en Mode Messagerie. * STMM: Soumission de Travaux en Mode messagerie * CRMM : Conférences Réparties en Mode Messagerie * BIMM : Bases d'Informations en Mode Messagerie Tous ces projets ont en commun deux points. Ils utilisent pour communiquer les services de Transfert de Messages X400. Et ils fonctionnent dans un environnement de systèmes et de machines hétérogènes.
APA, Harvard, Vancouver, ISO, and other styles
2

Busca, Jean-Michel. "Pastis : un système pair à pair de gestion de fichier." Paris 6, 2007. http://www.theses.fr/2007PA066578.

Full text
Abstract:
Pastis est un nouveau système de gestion de fichier pair à pair qui se démarque des systèmes existants par son architecture entièrement décentralisée et sa capacité à supporter un grand nombre d'utilisateurs. Pastis s'appuie sur la table de hachage distribuée Past, qui lui fournit ses propriétés d'auto-organisation, de tolérance aux fautes, de disponibilité et de passage à l'échelle. Pastis propose trois modèles de cohérence, permettant aux applications de choisir le compromis adéquat entre performance et cohérence des accès au système de fichiers. Ces modèles tirent parti des propriétés de localité de Past pour optimiser les accès réseau et augmenter les performances du système. Pastis garantit l'intégrité des données en s'appuyant sur des techniques cryptographiques et en implémentant un contrôle d'accès utilisant des ACL partagées. L'évaluation de Pastis en environnement émulé et simulé suggère que ses performances sont comparables ou supérieures à celles des systèmes existants.
APA, Harvard, Vancouver, ISO, and other styles
3

Picconi, Fabio. "Gestion de la persistance et de la volatilité dans le système de fichiers pair-à-pair Pastis." Paris 6, 2006. http://www.theses.fr/2006PA066627.

Full text
Abstract:
Les Tables de Hachage Distribuées (Distributed Hash Tables, ou DHT, en anglais) permettent la construction de services de stockage persistant, hautement disponible, et passant à l’échelle. Cependant, leur interface put/get s’avère assez limitée : la granularité des accès se fait au niveau fichier, il existe un seul espace d’adressage plat, et la cohérence des répliques doit souvent être gérée par l’application. En revanche, un système de fichiers pair-à-pair fournit une interface plus riche et de haut niveau, tout en garantissant la compatibilité avec les applications existantes. Dans la première partie de cette thèse nous présentons Pastis, un nouveau système de fichiers pair-à-pair reposant sur la DHT PAST. Contrairement aux systèmes précédents, Pastis est complètement décentralisé et supporte un très grand nombre d’utilisateurs en lecture-écriture. D’autre part, il permet aux utilisateurs de choisir entre deux modèles de cohérence en fonction des besoins de l’application. Enfin, Pastis garantit l'authenticité et l'intégrité des données au travers de mécanismes standard de cryptographie. Notre évaluation expérimentale montre que Pastis a des performances comparables ou supérieures à celles des systèmes précédents. Dans la seconde partie nous présentons une étude sur la pérennité des données dans les systèmes de stockage pair-à-pair. Des travaux récents ont proposé d’estimer la probabilité de perte d’une donnée en utilisant un modèle basé sur des chaînes de Markov. Or, les paramètres du modèle proposées jusqu’à maintenant produisent des résultats très différents par rapport à ceux mesurés par la simulation. Nous présentons une nouvelle expression qui permet d’obtenir ces paramètres avec plus de précision, ce qui se traduit par une estimation plus réaliste de la probabilité de perte des données du système.
APA, Harvard, Vancouver, ISO, and other styles
4

Ngo, Ba Hung. "Système de fichiers sémantique basé sur le contexte." Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0008.

Full text
Abstract:
Retrouver facilement et a posteriori des informations personnelles (fichiers, pages de Web, photos, courriels) est, de nos jours, indispensable pour l'ensemble des utilisateurs de bureaux informatiques. Malheureusement, les utilisateurs ne disposent pas de méthode unifié pour retrouver ces informations en provenance de multiples sources. Ils doivent jongler entre navigation dans une arborescence de fichiers traditionnelle et recherche à travers des moteurs d'indexation et de recherche sur le bureau informatique. En complément, les systèmes d'étiquetage sont de plus en plus utilisés pour faciliter la recherche de ressources sur Internet. Parmi les caractéristiques de fichiers personnels (propriétés, contenu, contexte) exploitées par les modèles de recherche de fichiers personnels, les contextes de travail des utilisateurs sont une caractéristique pertinente pour aider un utilisateur à retrouver ses fichiers personnels avec succès. Cette thèse propose un modèle de recherche de fichiers personnels, intitulé recherche de fichiers personnels par contexte, pour un système de fichiers sémantique. Un contexte est un ensemble d'étiquettes que l'utilisateur associe au fichier. Pour retrouver un fichier personnel, un utilisateur décrit le contexte de travail, qu'il pense lié au fichier. Le système calcule les contextes existants les plus proches de la requête et fournit une réponse qui peut être raffinée par navigation. Nous développons notre modèle en améliorant le modèle d'étiquetage traditionnel. À partir d'une relation entre étiquettes et de la popularité des étiquettes, nous proposons des algorithmes permettant d'organiser les étiquettes créées par un utilisateur dans un graphe orienté acyclique (DAGoT- Directed Acyclic Graph of Tags en anglais). Ce DAGoT est utilisé comme modèle de données de base pour mettre en œuvre le modèle de recherche de fichiers personnels par contexte. Ce graphe est utilisé par nos algorithmes pour reconnaître les contextes de travail associés aux fichiers personnels, guider l'utilisateur pour reconstruire un contexte de travail et raffiner les requêtes de recherche de fichiers personnels, retrouver de fichiers personnels par contexte
Organizing the information that we call personal files such as files in a home directory, web pages found on the Internet, images, emails for later revisiting is currently required by many computer users. Several information retrieval models are proposed to fullfil this requirement. Each model is characterized by the types of personal files, their organization and the searching method used. Traditional file systems let a user organize his files into a directory tree and retrieve them later by browsing the directory tree. Desktop seach tools such as Google Desktop or Beagle automatically index file properties and file content (keywords) to provide the user with file retrieval by querying on file properties or on file content. Semantic file systems propose a searching method that combines querying with browsing to give to the users the advantages of both searching methods. For informations on the Internet, tagging systems are more and more used to facilitate the re-finding of these Internet ressources. Among personal file characteristics (properties, content, context) exploited by the above retrieval models, the working context of the user has been proved to be relevant to help a user to successfully retrieve his personal files. This work proposes a model for personal file retrieval, called « context-based model for personal file retrieval ». Our model allows a user to associate his personal files with a working context using tags. To retrieve a personal file, the user must describe the working context corresponding to each file. The searching method in our model gives to the users the advantages of both searching methods: browsing and querying. We develop our model by improving traditional tagging models. Based on tag relationships and popularities, we organize tags created by a user into a directed acyclic graph (DAGoT). This DAGoT is used as the basic data model to realize our context-based model for personal file retrieval. We use this graph to recognize working contexts associated to personal files, guide a user to reconstruct his working contexts, refine the searching requests, and retrieve personal files by context
APA, Harvard, Vancouver, ISO, and other styles
5

Almousa, Almaksour Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : Application à la reconnaissance de gestes manuscrits." Rennes, INSA, 2011. http://www.theses.fr/2011ISAR0015.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. Nous proposons une approche incrémental pour l’apprentissage des systèmes d’inférence floue de type Takagi-Sugeno. Cette approche comprend d’une part, une adaptation des paramètres linéaires associés aux conclusions des règles par méthode des moindres carrés récursive, et d’autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d’appartenance suivant l’évolution de la densité des données dans l’espace de classification. La méthode proposée résout les problèmes d’instabilité d’apprentissage incrémental de ce type de systèmes grâce à un paradigme global d’apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des benchmarks connus, en mettant en évidence sa capacité d’apprentissage à la volée de nouvelles classes
We present in a new method for the conception of evolving and customizable classification systems. We propose an incremental approach for the learning of classification models based on first-order Takagi-Sugeno (TS) fuzzy inference systems. This approach includes, on the one hand, the adaptation of linear consequences of the fuzzy rules using the recursive least-squares method, and, on the other hand, an incremental learning of the antecedent of these rules in order to modify the membership functions according to the evolution of data density in the input space. The proposed method resolves the instability problems in the incremental learning of TS models thanks to a global learning paradigm in which antecedent and consequents are learned in synergy, contrary to the existing approaches where they are learned separately. The performance of our system had been demonstrated on different well-known benchmarks, with a special focus on its capacity of learning new classes
APA, Harvard, Vancouver, ISO, and other styles
6

Chai, Anchen. "Simulation réaliste de l'exécution des applications déployées sur des systèmes distribués avec un focus sur l'amélioration de la gestion des fichiers." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI003/document.

Full text
Abstract:
La simulation est un outil puissant pour étudier les systèmes distribués. Elle permet aux chercheurs d’évaluer différents scénarios de manière reproductible, ce qui est impossible à travers des expériences réelles. Cependant, les simulations reposent souvent sur des modèles simplifiés, dont le réalisme est trop rarement étudié dans la littérature. Ceci mène à une pertinence et une applicabilité discutables des résultats obtenus. Dans ce contexte, l'objectif principal de notre travail est d'améliorer le réalisme de la simulation en mettant l'accent sur le transfert de fichiers dans un système distribué à large échelle, tel que l’infrastructure de production EGI. Le réalisme de la simulation est étudié ici au travers de deux aspects principaux : le simulateur et le modèle de plate-forme (l’infrastructure distribuée). Ensuite, à partir de simulations réalistes, nous proposons des recommandations fiables pour améliorer la gestion des fichiers à travers des portails scientifiques, tels que la plate-forme d'imagerie virtuelle (VIP). Afin de reproduire de manière réaliste les comportements du système réel en simulation, nous devons en obtenir une vue de l'intérieur. Par conséquent, nous recueillons et analysons un ensemble de traces d’exécutions d'une application particulière exécutée sur EGI via VIP. En plus des traces, nous identifions et examinons les composants du système réel à reproduire de manière réaliste en simulation. Il s’agit, par exemple, des algorithmes utilisés pour la sélection d’un réplica dans le système de production. Nous simulons ensuite ces composants en utilisant les mécanismes mis à disposition par SimGrid. Nous construisons, à partir des traces, un modèle de plate-forme réaliste essentiel à la simulation des transferts des fichiers. La précision de notre modèle de plate-forme est évaluée en confrontant les résultats de simulations avec la vérité terrain des transferts réels. Nous montrons que le modèle proposé surpasse largement le modèle issu de l’état de l’art pour reproduire la variabilité réelle des transferts de fichiers sur EGI. Ce modèle est ensuite enrichi pour permettre l’analyse de nouveaux scénarios, au-delà de la reproduction des traces d’exécution en production. Enfin, nous évaluons différentes stratégies de réplication de fichiers par simulation en utilisant deux modèles différents: un modèle issu de l’état de l’art amélioré et notre modèle de plate-forme construit à partir des traces. Les résultats de simulations montrent que les deux modèles conduisent à des décisions de réplication différentes, même s’ils reflètent une topologie de réseau hiérarchique similaire. Ceci montre que le réalisme du modèle de plateforme utilisé en simulation est essentiel pour produire des résultats pertinents et applicables aux systèmes réels
Simulation is a powerful tool to study distributed systems. It allows researchers to evaluate different scenarios in a reproducible manner, which is hardly possible in real experiments. However, the realism of simulations is rarely investigated in the literature, leading to a questionable accuracy of the simulated metrics. In this context, the main aim of our work is to improve the realism of simulations with a focus on file transfer in a large distributed production system (i.e., the EGI federated e-Infrastructure (EGI)). Then, based on the findings obtained from realistic simulations, we can propose reliable recommendations to improve file management in the Virtual Imaging Platform (VIP). In order to realistically reproduce certain behaviors of the real system in simulation, we need to obtain an inside view of it. Therefore, we collect and analyze a set of execution traces of one particular application executed on EGI via VIP. The realism of simulations is investigated with respect to two main aspects in this thesis: the simulator and the platform model. Based on the knowledge obtained from traces, we design and implement a simulator to provide a simulated environment as close as possible to the real execution conditions for file transfers on EGI. A complete description of a realistic platform model is also built by leveraging the information registered in traces. The accuracy of our platform model is evaluated by confronting the simulation results with the ground truth of real transfers. Our proposed model is shown to largely outperform the state-of-the-art model to reproduce the real-life variability of file transfers on EGI. Finally, we cross-evaluate different file replication strategies by simulations using an enhanced state-of-the-art model and our platform model built from traces. Simulation results highlight that the instantiation of the two models leads to different qualitative decisions of replication, even though they reflect a similar hierarchical network topology. Last but not least, we find that selecting sites hosting a large number of executed jobs to replicate files is a reliable recommendation to improve file management of VIP. In addition, adopting our proposed dynamic replication strategy can further reduce the duration of file transfers except for extreme cases (very poorly connected sites) that only our proposed platform model is able to capture
APA, Harvard, Vancouver, ISO, and other styles
7

Bosco, Michel. "Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Full text
Abstract:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
8

N'Guessan, Assi. "Conception de logiciels destinés à des utilisateurs non-informaticiens : cas d'un système relationnel de gestion de fichiers." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090065.

Full text
Abstract:
Le système relationnel développé permet, à une grande partie des non professionnels de l'informatique, de créer et de manipuler de grands volumes de données pouvant comporter entre elles des liens logiques. Ces liens sont mis en œuvre dynamiquement au moment des demandes d'accès aux données, grâce a un langage non procédural et interactif de gestion de données.
APA, Harvard, Vancouver, ISO, and other styles
9

Lottiaux, Renaud. "Gestion globale de la mémoire physique d'une grappe pour un système à image unique : : mise en oeuvre dans le système Gobelins." Rennes 1, 2001. http://www.theses.fr/2001REN10097.

Full text
Abstract:
Cette thèse portent sur la conception d'un système d'exploitation dédié aux grappes d'ordinateurs. L'objectif est de fournir un système à image unique au dessus d'une grappe. Pour cela, nous proposons un mécanisme logiciel appelé conteneur, fondé sur une gestion globale de la mémoire physique des noeuds d'une grappe. Ce mécanisme permet de stocker et de partager des données entre les noyaux d'un système d'exploitation hôte. Les conteneurs sont intégrés au sein du système hôte grâce à un ensemble de lieurs, qui sont des éléments logiciels intercalés entre les gestionnaires de périphériques et les services systèmes. Il est ainsi possible de réaliser très simplement une mémoire virtuelle partagée, un système de caches de fichiers coopératifs, un système de gestion de fichiers distribués et de simplifier de manière significative les mécanismes de migration de processus. Un système d'exploitation nommé Gobelins a été réalisé sur la base d'un système Linux afin de valider notre concept.
APA, Harvard, Vancouver, ISO, and other styles
10

Hatoum, Abbas Antoun. "Gestion de ressources et d'interférences dans les réseaux femtocell ofdma." Paris 6, 2013. http://www.theses.fr/2013PA066093.

Full text
Abstract:
Les opérateurs de télécommunication se dirigent récemment vers les réseaux femtocell afin d'améliorer la couverture à l'intérieur, augmenter la capacité du réseau et assurer une bonne qualité de service puisque les stations de base traditionnelle (macrocells) toute seules ne parviennent pas à atteindre ces objectifs. Néanmoins, cette technologie est confrontée à de nombreux défis. En effet, avec les problèmes de la bande passante et les ressources qui sont limités on doit servir un très grand nombre d'utilisateurs qui nécessitent un service de plus en plus strict en termes de qualité et de débit. Dans cette thèse, nous abordons la problématique de l'allocation des ressources et la gestion de l'interférence dans les réseaux femtocell en utilisant la technologie OFDMA (LTE, WiMAX). Plus précisément, nous proposons tout d'abord une stratégie hybride centralisé/distribué, nommée (FCRA) pour l'allocation des ressources considérant une division orthogonale du spectre orthogonal entre les femtocell et les macrocells. Tout d'abord, FCRA construit des clusters disjoints. Puis, au sein du cluster l'allocation optimale des ressources pour chaque femtocell est exécutée par le chef du cluster (Cluster Head). Enfin, les collisions éventuelles entre les différents clusters sont traitées d'une manière distribuée au sein de chaque femtocell. Pour cela, nous formulons le problème mathématiquement comme problème d'optimisation Min-Max. Ensuite, un algorithme co-channel est proposé : (CO-FCRA). Dans ce cas on introduit le partage du spectre entre les utilisateurs femto et macro. Des approches de spectrum sensing sont utilisés pour détecter les transmissions existantes dans le uplink et estime les ressources utilisées dans le downlink afin d'allouer les ressources libres par la suite aux utilisateurs femtocell. Dans une deuxième approche, nous considérons un réseau avec une qualité de service et proposons une différenciation entre les utilisateurs avec un nouvel algorithme, appelé (Q-FCRA). Dans ce cas, le réseau peut servir avec à la fois des utilisateurs avec une haute priorité (HP) et des utilisateurs best effort (BE). Le problème d'optimisation est modifié pour prendre en compte les deux types d'utilisateurs et leur alloue les ressources en conséquence. L'objectif est de maximiser le nombre d'utilisateurs prioritaires et servir au mieux possible les utilisateurs best effort. Une troisième contribution est présentée, où nous proposons un algorithme de contrôle de puissance (QP-FCRA). Dans cet algorithme les stations femto doivent allouer en même temps des blocs de ressource et de puissance de transmission sur les différents canaux afin de réduire efficacement les interférences dans le même cluster et d'augmenter la réutilisation spatial du spectre. La puissance d'émission est calculée sur la base de l'interférence reçue pour satisfaire un seuil SINR minimum requis. Plusieurs travaux existants ont été utilisés pour la comparaison. La densité du réseau, les niveaux d'interférences, la durée de session et les taux de mobilité ont été pris en compte. L'évaluation des performances montre l'amélioration et la performance de nos algorithmes par rapport aux techniques existantes dans les différents paramètres de performance, tels que le nombre d'utilisateurs acceptées et refusées, l'équité, le taux de satisfaction, le débit, la réutilisation du spectre spatial, la convergence et le temps de calcul. L'amélioration de notre algorithme est prouvée par rapport aux approches centralisés, qui ne passent pas toujours à l'échelle, et les méthodes distribués avec lesquelles la performance est réduite pour des niveaux d'interférences et de densités élevées
Recently, operators have resorted to femtocell networks in order to enhance indoor coverage, network capacity and quality of service since macro-antennas alone fail to reach these objectives. Nevertheless, they are confronted to many challenges. To successfully deploy such solution, efficient resource allocation algorithms and interference mitigation techniques should be deployed. In this thesis, we address the issue of resources allocation in femtocell networks using OFDMA technology (e. G. , WiMAX, LTE). Specifically, we first propose a hybrid centralized/distributed resource allocation strategy for split spectrum namely Femtocell Cluster-based Resource Allocation (FCRA). Firstly, FCRA builds disjoint femtocell clusters. Then, within a cluster the optimal resource allocation for each femtocell is performed by its clusterhead. Finally, the contingent collisions among different clusters are fixed. To achieve this, we formulate the problem mathematically as Min-Max optimization problem. Then, a co-channel resource allocation algorithm (CO-FCRA) introduces spectrum sharing between femto and macro users. Spectrum sensing approaches are used to detect existing neighboring transmissions in the uplink and estimates resources used in the downlink to allocate resources accordingly. In a second approach, we consider networks with quality of service differentiation among users and propose a new algorithm, namely (Q-FCRA) with both high priority and best effort users. The optimization problem is modified to take into account both user types and allocates resources accordingly. The objective is to maximize the number of accepted high priority users and allocate as much as possible best effort users. As a third contribution, we present a power control algorithm (QP-FCRA), where femto stations allocate both resource blocks and transmission power on the different channels to effectively mitigate interference within the same cluster and increase the spectrum spatial reuse. The transmission power is calculated based on the interference received to satisfy a minimum required SINR threshold. Several existing works have been used for comparison. Different network densities, interference levels, session duration and mobility rates have been considered. Performance evaluation shows the improvement and the outperformance of our algorithms compared to the existing techniques regarding different performance metrics such as the number of accepted and rejected users, the fairness, the throughput satisfaction rate, the spectrum spatial reuse and the convergence and computation time. The scalability of our algorithm compared to the centralized ones is proven as well as the performance compared to the distributed algorithms
APA, Harvard, Vancouver, ISO, and other styles
11

Léon, Jacques. "Conception et réalisation d'un système de transfert de fichiers fondé sur le protocole de fichier virtuel FTAM (ISO) et application à la transmission de données par le satellite TELECOM 1 entre le CERN et Saclay." Paris 11, 1985. http://www.theses.fr/1985PA112252.

Full text
Abstract:
Le File Transfer System (ou FTS) est un logiciel de transfert de fichier conforme au modèle de référence ISO. Il recouvre les fonctions du protocole de fichier virtuel FTAM, et de la couche présentation. Il a été conçu pour interconnecter une large gamme de systèmes par le moyen de logiciels de réseaux divers. Il est donc portable et indépendant du réseau auquel il est raccordé. Le FTS gère plusieurs utilisateurs, et plusieurs transferts simultanés. Il gère lui-même ses tâches à l'aide de son propre noyau. L'une des applications essentielles du FTS est le transfert de données à haut débit (2Mbits/s) par le satellite TELECOM 1 via le réseau HELIOS. Enfin, un exemple d'implantation du FTS est illustré dans le cas du système VM/CMS d'IBM et du logiciel de réseau NETEX de NSC.
APA, Harvard, Vancouver, ISO, and other styles
12

Castro, Harold. "Les entrées-sorties dans les architectures massivement parallèles." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005040.

Full text
Abstract:
Il est reconnu aujourd'hui que pour un grand nombre d'applications les performances globales des systèmes sont fortement limitées faute d'un transfert suffisament rapide entre les unités de calcul et les dispositifs de stockage. L'idée développée au long de cette thèse est qu'il est possible de réaliser un système d'E/S universel et performant dans un environnement extensible si l'on respecte quelques principes dans sa conception. Pour ce faire, il est nécessaire d'y faire participer le matériel, le système d'exploitation, le système de fichiers et les utilisateurs, chacun au niveau approprié. Notre travail intègre toutes les composantes d'un sous-système d'E/S. En premier lieu, nous choisissons une architecture matérielle adéquate aux divers types de demandes d'E/S observés dans les applications parallèles. Nous présentons une architecture universelle et extensible qui permet de maximiser l'exploitation du parallélisme. En deuxième lieu, nous utilisons ParX, un micro-noyau parallèle conçu à l'intérieur de notre équipe, pour fournir les mécanismes de base à l'exécution d'un système de fichiers parallèle. Nous concrétisons d'abord certaines extensions indispensables pour mieux adapter ParX aux besoins des E/S parallèles, et ensuite, afin d'exploiter la projection des fichiers dans l'espace d'adressage, nous développons des mécanismes originaux, nécessaires à l'implémentation d'un espace d'adressage commun dans une architecture extensible à mémoire distribuée. En troisième lieu, nous introduisons les principes de base qui doivent être respectés afin de concilier la généralité et les hautes performances dans la conception d'un système de fichiers parallèle extensible. L'architecture du système de fichiers proposée à la fin du rapport est le résultat de l'application de ces principes.
APA, Harvard, Vancouver, ISO, and other styles
13

Castillo, Reitz Maria. "Etude d'un système d'extraction et présentation de résumés pour les bases de données." Montpellier 2, 1994. http://www.theses.fr/1994MON20277.

Full text
Abstract:
Ce travail traite de la creation et la representation de resumes d'information issues d'une base de donnees. Deux etapes cles sont particulierement examinees: la premiere concerne l'extraction proprement dite d'un resume qui resulte en general d'un processus d'agregation de donnees brutes. La seconde releve de la presentation de l'information resumee, i. E. Sa mise en forme. Nous avons developpe une application appelee ove (observatoire de la vie etudiante) exploitee par la cellule d'information de l'universite de montpellier ii pour repondre aux demandes du ministere de l'education nationale. Un de ses objectifs est la definition d'un langage qui puisse definir et representer aisement des donnees resumees selon une forme multidimensionnelle ou graphique. Un modele du systeme ove a ete elabore ; il definit la notion de resume et caracterise precisement les operations realisees par l'application. Ce modele se base sur une approche fonctionnelle typee d'un modele relationnel etendu, notamment par une operation d'agregation par filtrage ou les relations a attributs calcules
APA, Harvard, Vancouver, ISO, and other styles
14

Ortiz, Aurélien. "Contrôle de la concurrence dans les grilles informatiques." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/770/.

Full text
Abstract:
Ces dernières décennies, les progrès réalisés dans le domaine des télécommunications ont rendu possible le regroupement d'une multitude d'ordinateurs, connectés entre eux par un réseau large-échelle. La naissance des grilles informatiques a permis la collaboration de ressources géographiquement distribuées, autorisant ainsi l'exécution d'applications qui nécessitent une grande puissance de calcul et un large espace de stockage. Un intergiciel est alors utilisé pour fédérer les ressources de la grille et résoudre les problèmes liés à l'hétérogénéité des architectures des machines, la sécurité des domaines administratifs, ou encore la dynamicité des ressources. Le projet RNTL ViSaGe est né dans ce contexte. ViSaGe est un intergiciel de grille, incluant un système de fichiers distribués qui s'appuie sur une couche de virtualisation des données chargée d'agréger l'ensemble des ressources de stockage de la grille dans un espace virtuel partagé par toutes les machines. Les services proposés par ViSaGe sont gérés de façon décentralisés sur tous les nœuds de la grille. Dans ces travaux de thèse, nous nous intéressons au service de gestion de la concurrence de ViSaGe : le VCCC. Ce composant assure l'exclusion mutuelle entre les nœuds de la grille, pour l'accès à diverses ressources partagées par les autres composants de ViSaGe. Ce service est essentiel, mais il génère énormément de messages de contrôle sur le réseau. Or, ces messages très souvent de petite taille, sont fortement exposés à la latence du réseau qui caractérise l'environnement grille. Par conséquent, le contrôle de la concurrence dégrade très souvent la performance et la réactivité de l'intergiciel. Le travail effectué dans le cadre de cette thèse consiste à apporter une solution compétitive pour réaliser la synchronisation des nœuds de la grille. Tout d'abord, nous avons élaboré un algorithme d'exclusion mutuelle à partir de plusieurs techniques issues de la littérature. Celui-ci s'appuie notamment sur un algorithme à jeton, pour lequel les machines de la grille sont organisées selon une structure en arbre. De plus, nous avons mis en œuvre d'autres techniques pour faciliter l'adaptation du composant VCCC à l'architecture de la grille, et ainsi améliorer la performance de notre intergiciel. En particulier, nous avons amélioré la gestion des caches des autres composants de ViSaGe, grâce à la charge de travail observée dans le VCCC. Par ailleurs, nous avons travaillé à l'optimisation de la répartition du contrôle de la concurrence sur les différents nœuds de la grille. .
These last decades, the progress made in the field of telecommunications made possible the gathering of multiple clusters, interconnected by a wide area network. The birth of grid computing allowed the collaboration of geographically distributed resources, thus authorizing the execution of applications which require a great power of calculation and a large storage space. A middleware is then used to federate the grid resources and to solve the problems involved in the heterogeneity and dynamicity of those resources, as well as the safety of the grid's administrative domains. The ViSaGe project was born in this context. ViSaGe is a grid middleware which includes a distributed file system, and a virtualization layer which aggregates the storage resources dispersed among the grid nodes, in order to provide the user a global view of a huge shared virtual space. In this thesis, we were interested in the ViSaGe's concurrency control service : the VCCC. This component uses a mutual exclusion algorithm to ensure consistency accesses to various ressources shared by the grid nodes. This service is essential, but it generates a lot of control messages on the network. However, these messages, which are often of small size, are strongly exposed to the latency of the network which characterizes grid environment. Consequently, the concurrency control very often degrades the performance and the reactivity of the middleware. What we achieved in this thesis consists in bringing a competitive solution to carry out the synchronization of the grid nodes. We proposed a mutual exclusion algorithm based on several techniques resulting from the literature. In particular, we used a token algorithm, for which the grid nodes are organized according to a tree structure. Moreover, we implemented other methods to make easier the adaptation of the VCCC to the architecture of the grid, and thus to enhance the performance of our middleware. First of all, we improved the cache management of the other components of ViSaGe, according to the workload observed in the VCCC. In addition, we optimized the way that the concurrency control is spread out over the various grid nodes. Lastly, we developed a method based on the use of the multicast, which makes it possible in some cases to go round the problem induced by the network latency, with an aim of improving the reactivity of the system. .
APA, Harvard, Vancouver, ISO, and other styles
15

Papageorgiou, Mario. "Les Systèmes de gestion de fichiers répartis." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37617305t.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Gardien, Robert. "Réalisation d'un système de gestion de fichiers en langage Pascal pour MODULECO." S.l. : Université Grenoble 1, 2008. http://dumas.ccsd.cnrs.fr/dumas-00306216.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Giraldeau, Francis. "Gestion de fichiers de configuration par une vue abstraite modifiable." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4889.

Full text
Abstract:
La gestion de fichiers de configuration sous Linux est complexe et propice aux erreurs étant donné le grand nombre de fichiers de formats différents. Toutes les techniques couramment utilisées pour modifier ces fichiers sont insatisfaisantes. Nous proposons d'abstraire la syntaxe variée des fichiers de configuration par une structure de données unique et modifiable. Nous nous intéressons aux algorithmes permettant de transformer un fichier de configuration - une chaîne de caractères - en une représentation abstraite, y effectuer des modifications et reporter ces modifications dans le fichier d'origine, ce qui doit se traduire par une modification minimale du fichier. Deux logiciels qui permettent d'effectuer des transformations bidirectionnelles sur des chaînes de caractères sont modifiés pour nos besoins, soit XSugar et Augeas. XSugar fait en sorte que certains caractères peuvent être perdus lors d'une transformation aller-retour. Dans le contexte de la gestion de fichiers de configuration, il est essentiel de préserver tous les caractères présents dans la représentation concrète, mais exclus de la représentation abstraite, de manière à les restituer dans la version concrète modifiée. Nous proposons deux techniques permettant de surmonter ces limitations. Cependant, les résultats ont été partiellement atteints. Augeas est limité dans le traitement de certains types de fichiers balisés, comme les fichiers XML. Une extension au langage adaptée à ce problème a été développée. Cette extension permet de transformer efficacement tout type de fichiers balisés. Le développement d'un module pour la configuration du serveur Web Apache démontre le succès dans l'application pratique de cette extension et constitue une première dans le domaine.
APA, Harvard, Vancouver, ISO, and other styles
18

Nguyen, Vu Anh. "Évolutivité et performance de systèmes de fichiers sur grappes d'ordinateurs." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/MQ65590.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Desserle, Elodie Rony Sandra. "La gestion des collections de la Bibliothèque numérique de l'Institut National d'Histoire de l'Art (INHA) fichiers sources et fichiers dérivés /." [S.l.] : [s.n.], 2007. http://www.enssib.fr/bibliotheque/documents/ppp/ppp-desserle-P.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Thiébolt, François. "Projet ViSaGe : VisageFS, systèmes de fichiers à fonctionnalités avancées pour grille." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/886/.

Full text
Abstract:
Les grilles informatiques permettent d'envisager des solutions vis à vis des applications de grands challenges. L'accès aux données sur une grille reste cependant complexe tant que l'on ne dispose pas d'un système de fichiers pour grille. ViSaGe adresse la problématique de la mobilisation de ressources de stockage hétérogènes largement disséminées, de l'accès et du partage de données au sein d'environnements de type grille. Les ressources de stockage de la grille sont agrégées sous la forme de ressources virtuelles possédant différentes propriétés (e. G. Hautes performances, réplication. . . ). Ces ressources virtuelles sont mises à disposition de VisageFS, la composante système de fichiers de ViSaGe. VisageFS permet aux applications Posix un accès souple et transparent aux données en tout point de la grille au moyen d'un espace de noms global. Pour améliorer la performance des applications qui s'exécutent sur la grille, nous avons doté VisageFS de fonctionnalités avancées originales qui permettent de contourner la latence via une utilisation transparente des ressources de stockage locales aux nœuds de la grille. Toute application évoluant au sein de l'espace de noms de VisageFS peut ainsi faire un usage transparent de ressources de stockage locales au nœud où elle se trouve. La performance du stockage des données n'est ainsi plus dépendante de la latence d'accès à une ressource potentiellement distante. En dotant ensuite VisageFS d'une sémantique Posix dont la portée peut être ajustée à un niveau site ou nœud vis à vis d'un répertoire, nous réduisons fortement le trafic réseau lié au maintien de la cohérence de l'espace de noms
Nowdays, the grid computing enables solutions to large challenging applications. However, data access in a grid is very complex unless you have a large scale filesystem. The ViSaGe project leverages the needs for spread heterogeneous storage management, data access, and data sharing on nodes over the grid. Storage resources are aggregated within virtual storage spaces featuring different properties (high performance, replication,. . . ). These virtual resources are made available to VisageFS, the ViSaGe project filesystem component. By means of a global namespace, VisageFS enables a seamless access to data everywhere in the grid for Posix applications. In order to improve the performance of applications in the grid, VisageFS features advanced and original functionalities. Those functionalities avoid the use of high latency networks by means of a transparent usage of local storage resources. Every application that evolves within the VisageFS global namespace can make a transparent usage of local storage resources. This way, data storage performances is no more dependant on high latency distant storage resources. Moreover, VisageFS features a Posix consistency that may shrink to a site or a node level on the basis of each directory. Thus, namespace-consistency network traffic is greatly reduced
APA, Harvard, Vancouver, ISO, and other styles
21

Fischer, Nicolas. "Fusion statistique de fichiers de données." Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0483.

Full text
Abstract:
La fusion statistique de fichiers a pour but de rapprocher des données issues des sources différentes. Lorsque des données sont manquantes, les techniques de fusion permettent de transférer de l’information, c’est à dire les variables d’intérêt, contenues dans un certain nombre de fichiers (fichiers donneurs) à un autre fichier(fichier receveur). Cette méthode repose sur l’existence de variables communes, aux différents fichiers. Nous proposons de nouvelles approches de modélisation des variables d’intérêt qualitatives, qui font appel à la régression logistique et la régression PLS. Celle-ci est particulièrement intéressante dans le cas de données fortement corrélées. Ces méthodes ont été appliquées à des données réelles et validées selon plusieurs critères qui permettent de s’assurer de la qualité de l’analyse. Enfin, un système d’aide à la décision performant, fondé sur l’indicateur lift, a été validé opérationnellement
It is the objective of statistical data fusion to put together data emanating from distinct sources. When data are incomplete in files, fusion methodologies enable to transfer information, i. E. Variables of interest which are available in the so called donor files into a recipient file. This technique is based on the presence of common variables between the different files. We introduce new models for qualitative data which involve logistic and PLS regression. The latter is of special interest when dealing with highly correlated data set. These methods have been successfully tested on real data set and validated according to several criteria assessing the quality of statistical analysis. Finally, a decision making process has been operationally validated by using the lift indicator
APA, Harvard, Vancouver, ISO, and other styles
22

Travaillé, Denis. "Systèmes de Gestion de Production et Systèmes de Contrôle de Gestion." Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00491490.

Full text
Abstract:
L'interrogation fondamentale des travaux de recherche porte sur la question de la séparabilité et de l'interaction entre système de gestion de production et système de contrôle de gestion. Le premier temps de la réflexion concerne la spécificité du contrôle de gestion en contexte de "Juste-à-Temps. Le second temps de la recherche est relatif aux systèmes d'information de production intégrés en relation avec le système de contrôle de gestion et au rôle des représentations comptables dans la quasi-intégration des systèmes de production. Enfin, le programme de recherche à venir est orienté vers l'approfondissement des questions de la représentation comptable des systèmes de gestion de production élargie aux tableaux de bord stratégiques et de l'automatisation des tableaux de bord élargie au cas des réseaux inter-organisationnels.
APA, Harvard, Vancouver, ISO, and other styles
23

Sueur, Dominique. "Algorithmes de redistribution de données : application aux systèmes de fichiers parallèles distribués." Lille 1, 1997. http://www.theses.fr/1997LIL10197.

Full text
Abstract:
L'exploitation du parallelisme necessite une distribution prealable des donnees sur les processeurs. Cette distribution de calcul n'est habituellement pas conforme a la distribution utilisee sur les disques. Chaque operation d'entrees/sorties necessite alors une operation de redistribution pour migrer les donnees des processeurs de calculs aux nuds d'entrees/sorties. En generale, une redistribution est une operation couteuse. Cependant la plupart des redistributions usuelles acceptent une modelisation simplifiee. A partir de ces modeles simples nous avons defini des algorithmes efficaces. Ces algorithmes minimisent le nombre et le volume des messages et utilisent les processeurs de calculs en parallele avec les nuds d'entrees/sorties. Pour tirer profit de toute les ressources, il faut repartir au mieux les messages sur l'ensemble des destinataires. Les redistributions qui generent de nombreux conflits ont ete identifiees. Pour ces cas precis, nous avons calcule un ordonnancement optimal des messages. Les mesures effectuees sur une ferme de processeurs alpha montrent que le gain par rapport a un algorithme enumeratif general est toujours superieur a cinq. A partir de ces algorithmes nous avons construit un systeme de fichiers adapte aux machines paralleles heterogenes et au modele de programmation a parallelisme de donnees. Notre environnement integre notamment la notion de peripherique virtuel distribue. Chaque peripherique parallele est defini par une grille de nuds d'entrees/sorties et par une fonction de distribution semblable a celles utilisees par le langage hpf. Le concept de peripherique virtuel distribue est fondamental car il permet la reutilisabilite. Le programmeur accede a des fichiers logiques, sans avoir a connaitre l'organisation des donnees dans le systeme de fichiers. Les algorithmes de redistributions sont declenches dynamiquement a chaque operation d'entrees/sorties paralleles.
APA, Harvard, Vancouver, ISO, and other styles
24

Todeschi, Grégoire. "Optimisation des caches de fichiers dans les environnements virtualisés." Thesis, Toulouse, INPT, 2020. http://www.theses.fr/2020INPT0048.

Full text
Abstract:
Les besoins en ressources de calcul sont en forte augmentation depuis plusieurs décennies, que ce soit pour des applications du domaine des réseaux sociaux, du calcul haute performance, ou du big data. Les entreprises se tournent alors vers des solutions d'externalisation de leurs services informatiques comme le Cloud Computing. Le Cloud Computing permet une mutalisation des ressources informatiques dans un datacenter et repose généralement sur la virtualisation. Cette dernière permet de décomposer une machine physique, appelée hôte, en plusieurs machines virtuelles (VM) invitées. La virtualisation engendre de nouveaux défis dans la conception des systèmes d'exploitation, en particulier pour la gestion de la mémoire. La mémoire est souvent utilisée pour accélérer les coûteux accès aux disques, en conservant ou préchargeant les données du disque dans le cache fichiers. Seulement la mémoire est une ressource limitée et limitante pour les environnements virtualisés, affectant ainsi les performances des applications utilisateurs. Il est alors nécessaire d'optimiser l'utilisation du cache de fichiers dans ces environnements. Dans cette thèse, nous proposons deux approches orthogonales pour améliorer les performances des applications à l'aide d'une meilleure utilisation du cache fichiers. Dans les environnements virtualisés, hôte et invités exécutent chacun leur propre système d'exploitation (OS) et ont donc chacun un cache de fichiers. Lors de la lecture d'un fichier, les données se retrouvent présentes dans les deux caches. Seulement, les deux OS exploitent la même mémoire physique. On parle de duplication des pages du cache. La première contribution vise à pallier ce problème avec Cacol, une politique d'éviction de cache s'exécutant dans l'hôte et non intrusive vis-à-vis de la VM. Cacol évite ces doublons de pages réduisant ainsi l'utilisation de la mémoire d'une machine physique. La seconde approche est d'étendre le cache fichiers des VM en exploitant de la mémoire disponible sur d'autres machines du datacenter. Cette seconde contribution, appelée Infinicache, s'appuie sur Infiniband, un réseau RDMA à haute vitesse, et exploite sa capacité à lire et à écrire sur de la mémoire à distance. Directement implémenté dans le cache invité, Infinicache stocke les pages évincées de son cache sur de la mémoire à distance. Les futurs accès à ces pages sont alors plus rapides que des accès aux disques de stockage, améliorant par conséquent les performances des applications. De plus, le taux d'utilisation de la mémoire à l'échelle du datacenter est augmenté, réduisant le gaspillage de manière globale
The need for computing resources has been growing significantly for several decades, in application domains from social networks, high-performance computing, or big data. Consequently, companies are outsourcing theirs IT services towards Cloud Computing solutions. Cloud Computing allows mutualizing computing resources in a data center, and generally relies on virtualization. Virtualization allows a physical machine, called a host, to be split into multiple guest virtual machines (VMs). Virtualization brings new challenges in the design of operating systems, especially memory management. Memory is often used to speed up expensive disk accesses by storing or preloading data from the disk to the file cache. However memory is a limited and limiting resource for virtualized environments, thus impacting the performance of user applications. It is therefore necessary to optimize the use of the file cache in these environments. In this thesis, we propose two orthogonal approaches to improve application performance through better use of the file cache. In virtualized environments, both host and guests run their own operating system (OS) and thus have their own file cache. When a file is read, the data is present in both caches. However, both OSes use the same physical memory. We hence have a phenomenon called pages duplication. The first contribution aims at alleviating this problem with Cacol, a host cache eviction policy, which is non-intrusive for the VM. Cacol avoids these duplicated pages, thus reducing the memory usage of a physical machine. The second approach is to extend the file cache of VMs by exploiting memory available on other machines in the datacenter. This second contribution, called Infinicache, relies on Infiniband, a high-speed RDMA network, and exploits its ability to read and write remote memory. Implemented directly in the guest cache, Infinicache stores on remote memory pages that have been evicted from its cache. Future accesses to these pages are then be faster than accesses to storage disks, thereby improving application performance. In addition, the datacenter-wide memory utilization rate is increased, reducing overall memory wasting
APA, Harvard, Vancouver, ISO, and other styles
25

Gaillardon, Philippe. "Accès aux fichiers partagés : une réalisation sous le système VM." Lyon 1, 1988. http://www.theses.fr/1988LYO10064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Sibade, Cédric. "Compression de données pour les systèmes de traitement de document grand format." Université de Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0176.

Full text
Abstract:
Les systèmes de traitement de documents proposent de multiples fonctionnalités, telles que l’impression, la copie, la numérisation, auxquelles il est possible d’appliquer différentes opérations de traitements d’image. Dans le cadre des documents grand format et pour des utilisations productives, ces architectures de traitement de données sont en présence de flux massifs d’image. L’étude de l’évolution de tels systèmes permet d’envisager une augmentation des tailles et des débits de ces flux. Cette thèse se propose d’étudier ce que la compression d’image signifie pour une utilisation au sein de ces architectures de traitement de documents grand format. Une étude algorithmique est réalisée ; elle permet d’investiguer les apports et les modes de fonctionnement des méthodes de compression pour ce domaine. Pour être intégrées sur les chemins de données de l’architecture de traitement d’images grand format, une phase d’analyse des impacts sur le système doit être réalisée. Cette étude a donc permis la mise en place d’une méthodologie de description et d’évaluation du comportement du système et de ses flots de données. Un outil de simulation basé sur cette modélisation du comportement a été réalisé. Cette approche aboutit à une proposition d’optimisation du chemin de données existant avec les formats compressés, pour éviter des étapes coûteuses de compression et de décompression. Nous montrons qu’il est recommandé d’étendre ses apports, initialement visant des fins de stockage et de transfert de données, en adaptant les traitements d’images effectués pour un format compressé. Cette étude évalue les possibilités de ces traitements à effectuer sur le flux compressé. Elle prend en compte les transformations actuellement implémentées au sein des systèmes grand format et propose une méthode innovante pour le rendu des images halftone compressées par JPEG
Technical document systems are proposed as multi-functional machines, to allow print, copy or scan works, along with the application of different image processing operations. Targeting wide format documents and in a productive environment, these data processing architectures are managing huge image data flows. By investigating such systems, we emphasize flow size and data rate increasing. This PhD report first investigates the behavior of image compression, within such wide format printing systems data flows. A study targeting compression potentialities for this specific domain is proposed. However, compression solutions definition and implementation must be preceded by an analysis of the behavioral impact for the global system. Within this study, we therefore propose a strategy and a method to perform functional measurements for this system and data flow, including compression solutions. A simulation tool based on this behavioral modelisation has been realised. Confirmed by this approach, we therefore propose to enhance the existing data flows with a compressed format, by avoiding costly compression and decompression operations. It is recommended to extend its benefit, initially targeting only storage and data transfer, to image processing functionalities, by keeping this compressed format. We therefore investigate the potentialities of such compressed-domain processing, in order to propose a more global use for printing and document processing products. An innovative halftoning method applied on JPEG compressed images is proposed in the context of these compressed-domain processing operations
APA, Harvard, Vancouver, ISO, and other styles
27

Peyrouze, Nadine. "Conception et realisation d'un systeme de gestion de fichiers nfs efficace et sur de fonctionnement." Rennes 1, 1995. http://www.theses.fr/1995REN10118.

Full text
Abstract:
Ce document a pour objet la conception et la realisation d'un systeme de gestion de fichiers (sgf) nfs (network file system) efficace et sur de fonctionnement. Ces deux proprietes sont en effet habituellement difficilement conciliables. Pour reduire le goulot d'etranglement du aux entrees/sorties disque, le sgf repose sur l'utilisation d'un cache des fichiers pour traiter rapidement les requetes des clients en memoire volatile plutot que sur disque. Si le cache augmente les performances du sgf, il a le defaut d'etre vulnerable aux defaillances du serveur puisque celles-ci provoquent la perte des modifications conservees en cache volatile. Il est donc a priori necessaire de reporter systematiquement et immediatement les mises a jour sur disque pour resister aux defaillances. Afin d'offrir un compromis acceptable entre efficacite et surete de fonctionnement du service, nous proposons une solution pour le systeme nfs basee sur l'utilisation d'un cache stable. Le contenu du cache stable a les proprietes d'etre accede rapidement, d'etre modifie atomiquement et d'etre accessible malgre l'occurence d'une defaillance. Ces proprietes sont mises en uvre par la gestion de copies des donnees en memoire volatile d'une machine primaire et d'une machine de secours, mises a jour suivant un protocole de validation. Le cache stable permet d'implementer la surete de fonctionnement du service sans degrader ses performances: (i) l'etat du sgf est modifie atomiquement en reportant les modifications sur la machine de secours a travers un lien de communication rapide plutot que sur disque ; (ii) l'etat du sgf est disponible en memoire de la machine de secours ce qui accelere la reprise du service en cas de defaillance de la machine primaire. L'utilisation du cache stable autorise en outre l'accumulation des modifications sur l'etat logique des fichiers en cache afin de les reporter de maniere groupee sur leur etat physique. Cette technique de report groupe asynchrone permet d'optimiser la gestion du stockage en effectuant des ecritures de grande taille au lieu de multiples petites ecritures sur les fichiers. Nous avons realise, puis evalue, un prototype du systeme propose pour une plate-forme distribuee composee de stations de travail sun et du systeme unix. Les resultats obtenus sont satisfaisants puisque le prototype s'est montre, dans certains cas, jusqu'a deux fois plus rapide que le serveur nfs standard de sun
APA, Harvard, Vancouver, ISO, and other styles
28

Bazot, Thierry. "Les systèmes d'information de gestion." Paris 2, 2002. http://www.theses.fr/2002PA020031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Duminuco, Alessandro. "Redondance et maintenance des données dans les systèmes de sauvegarde de fichiers pair-à-pair." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005541.

Full text
Abstract:
La quantité de données numériques produites par les utilisateurs, comme les photos, les vidéos et les documents numériques, a énormément augmenté durant cette dernière décennie. Ces données possèdent une grande valeur et nécessitent d'être sauvegardées en sécurité. D'une part, les solutions basées sur les DVDs et les disques durs externes, bien que très communes, ne fournissent pas un niveau suffisant de fiabilité. D'autre part les solutions basées sur de serveurs centralisées sont très coûteuses. Pour ces raisons, la communauté de recherche a manifesté un grand intérêt pour l'utilisation des systèmes pair-à-pair pour la sauvegarde de donnés. Les systèmes pair-à-pair représentent une solution intéressante grâce à leur capacité de passage à l'échelle. En effet, la capacité du service augmente avec la demande. La conception d'un réseau de sauvegarde de fichiers pair-à-pair est une tâche très complexe et présente un nombre considérable de défis. Les pairs peuvent avoir une durée de connexion limitée et peuvent quitter le système à un taux qui est considérablement plus élevé que dans le cas des systèmes de stockage centralisés. Notre intérêt se concentre sur la manière de fournir efficacement du stockage de données suffisamment fiable en appliquant des schémas de redondance appropriés et en adoptant des bons mécanismes pour maintenir une telle redondance. Cet effort n'est pas négligeable, dans la mesure où la maintenance du stockage de données dans un tel système exige des ressources importantes en termes de capacité de stockage et de largeur de bande passante. Notre contribution se porte sur deux aspects. Premièrement, nous proposons et étudions des codes correcteurs pour la redondance capables de combiner l'efficacité en bande passante de la réplication à l'efficacité en stockage des codes correcteurs classiques. En particulier, nous présentons et analysons deux nouvelles classes de codes: Regenerating Codes et Hierarchical Codes. Deuxièmement, nous proposons un système de réparation, nommé "adaptive proactive repair scheme", qui combine l'adaptabilité des systèmes réactifs avec l'utilisation régulière de la bande passante des systèmes proactifs, en généralisant les deux approches existantes.
APA, Harvard, Vancouver, ISO, and other styles
30

Lecuire, Vincent. "Gestion des systèmes et réseaux industriels." Nancy 1, 1994. http://www.theses.fr/1994NAN10051.

Full text
Abstract:
Le réseau local industriel est devenu une composante essentielle des systèmes automatisés de production. Mais il peut être source, tant de non-productivité que de cout si sa fiabilité, sa maintenabilité, sa sécurité et ses performances ne sont pas garanties. C'est pourquoi la gestion de réseau cruciale dans un tel environnement. Toutefois, elle ne constitue pas une finalité en soi, et les besoins fonctionnels de l'utilisateur final sont plus diversifiés. Dans ce mémoire, un modèle de gestion des systèmes et réseaux industriels est proposé. Il tient compte de l'hétérogénéité culturelle des différents intervenants, c'est-à-dire de leur préoccupation et de leur savoir-faire. Le modèle présenté se base et tire profit de la normalisation relative à la gestion OSI dont il reconsidère et élargit le champ d'applications. Les systèmes et le réseau formant le support des applications distribuées, l'intégration de ces deux composantes indissociables au sein d'un unique modèle permet, dans une stratégie globale, de gérer finalement la partie commande du point de vue de son organisation. Enfin, une méthodologie orientée-objet guide l'analyse et la conception de l'activité de gestion, depuis l'expression des besoins des utilisateurs jusqu'a la solution définie en termes d'objets gérés et de coopération entre les processus distribués
APA, Harvard, Vancouver, ISO, and other styles
31

Bedini, Ivan. "Génération automatique d'ontologie à partir de fichiers XSD appliqué au B2B." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0004.

Full text
Abstract:
Computer mediated networks play a central role in the evolution of Enterprise Information Systems. However the integration of data in networked systems still remains harder than it really should be. In our research we claim that Semantic Web technologies, and specifically ontologies, are well suited to integrate this domain to fulfil current approaches and achieve the needed flexibility. For this we address the first step toward the business semantic communication with a system that overcomes some of the existing lacks in the state of the art and provides a new approach for the automatic generation of ontologies from XML sources. We show the usefulness of our system by applying our theory to the B2B domain and producing automatically ontologies of relevant quality and expressiveness
La communication entre systèmes d'information d'entreprise joue un rôle central dans l'évolution des processus d'affaire. Pourtant l'intégration des données reste compliquée : elle exige un effort humain considérable, surtout pour les connexions d'applications appartenant à différentes entreprises. Dans notre recherche nous affirmons que les technologies du Web Sémantique, et plus particulièrement les ontologies, peuvent permettre l'obtention de la flexibilité nécessaire. Notre système permet de surmonter certains manques dans l'état de l'art actuel et réalise une nouvelle approche pour la génération automatique d'ontologies à partir de sources XML. Nous montrons l'utilité du système en appliquant notre théorie au domaine du B2B pour produire automatiquement des ontologies de qualité et d’expressivité appropriée
APA, Harvard, Vancouver, ISO, and other styles
32

TERRAS, MICHEL. "Telecommunication et imagerie medicale : realisation d'un systeme de gestion d'une base de donnees de fichiers medicaux interfile." Lyon 1, 1993. http://www.theses.fr/1993LYO1M007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Si-Mohammed, Malik. "Systèmes experts et conception de systèmes d'information : assistance à l'étude de l'existant." Toulouse 3, 1990. http://www.theses.fr/1990TOU30218.

Full text
Abstract:
Cette these a trait aux apports des systemes experts en conception de systemes d'information, et en particulier a l'etape d'etude de l'existant. Apres un bref rappel sur les principales notions introduites par les systemes experts, l'auteur s'interesse aux specificites des systemes experts de gestion. Il decrit alors la realisation du systeme expert rubicon, destine a l'aide a la decision d'informatisation des petits entreprises commerciales, avant de generaliser les concepts introduits par rubicon au developpement d'un systeme expert d'audit, de par la generalisation du modele de representation de la connaissance propose et mis en uvre dans rubicon. L'auteur propose ainsi des criteres de qualite de l'information, ainsi qu'une structure appelee matrice d'evolution de l'information, a meme d'etre utilisee dans le developpement d'un systeme expert d'audit, dont l'auteur propose une architecture
APA, Harvard, Vancouver, ISO, and other styles
34

Bobineau, Christophe. "Gestion de transactions en environnement mobile." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS0031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Daubigney, Lucie. "Gestion de l'incertitude pour l'optimisation de systèmes interactifs." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0099/document.

Full text
Abstract:
Le sujet des travaux concerne l'amélioration du comportement des machines dites \og intelligentes\fg, c'est-à-dire capables de s'adapter à leur environnement, même lorsque celui-ci évolue. Un des domaines concerné est celui des interactions homme-machine. La machine doit alors gérer différents types d'incertitude pour agir de façon appropriée. D'abord, elle doit pouvoir prendre en compte les variations de comportements entre les utilisateurs et le fait que le comportement peut varier d'une utilisation à l'autre en fonction de l'habitude à interagir avec le système. De plus, la machine doit s'adapter à l'utilisateur même si les moyens de communication entre lui et la machine sont bruités. L'objectif est alors de gérer ces incertitudes pour exhiber un comportement cohérent. Ce dernier se définit comme la suite de décisions successives que la machine doit effectuer afin de parvenir à l'objectif fixé. Une manière habituelle pour gérer les incertitudes passe par l'introduction de modèles : modèles de l'utilisateur, de la tâche, ou encore de la décision. Un inconvénient de cette méthode réside dans le fait qu'une connaissance experte liée au domaine concerné est nécessaire à la définition des modèles. Si l'introduction d'une méthode d'apprentissage automatique, l'apprentissage par renforcement a permis d'éviter une modélisation de la décision \textit{ad hoc} au problème concerné, des connaissances expertes restent toutefois nécessaires. La thèse défendue par ces travaux est que certaines contraintes liées à l'expertise humaine peuvent être relaxées tout en limitant la perte de généricité liée à l'introduction de modèles
The behaviour of machines is difficult to define, especially when machines have to adapt to a changing environment. For example, this is the case when human-machine interactions are concerned. Indeed, the machine has to deal with several sources of uncertainty to exhibit a consistent behaviour to the user. First, it has to deal with the different behaviours of the users and also with a change in the behaviour of a user when he gets used to the machine. Secondly, the communication between the user and the machine can be noisy, which makes the transfer of information more complicated. The objective is thus to deal with the different sources of uncertainty to show a consistent behaviour. Usually, dealing with uncertainties is performed by introducing models : models of the users, the task concerned or the decision. However, the accuracy of the solution depends on the accuracy of expert knowledge used to build the models. If machine learning, through reinforcement learning, has successfully avoided the use of model for the decision and removed \textit{ad hoc} knowledge about it, expert knowledge is still necessary. The thesis presented in this work is that some constraints related to human expertise can be slackened without a loss of generality related to the introduction of models
APA, Harvard, Vancouver, ISO, and other styles
36

Sissokho, Bamba. "Gestion des interférences dans les systèmes MIMO massifs." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0008/document.

Full text
Abstract:
Cette thèse a permis de travailler sur l'efficacité d'un canal des systèmes massifs MIMO pour lesquels il faille déterminer le débit à l'Uplink des terminaux présents dans leurs cellules respectives. Comme hypothèse, la bande de fréquence en mode TDD est réutilisée dans chaque cellule. Tous les symboles sont propagés de manière asynchrone par les terminaux présents dans les cellules, n'empêchant pas de fait des interactions intra et inter symboles au niveau des stations de base. Ces signaux rencontrent beaucoup d'obstacles sur leur trajet qui entraînent des retards, des pertes de signaux (destructifs), des régénérations de signaux (constructifs) avec divers types de modulation (amplitude, fréquentielle, phase), etc. L’affaiblissement du trajet dans le canal est mis en exergue avec les différentes valeurs prises par le coefficient d'atténuation choisi lors des simulations. Face à cette situation, il a fallu rechercher le meilleur et robuste estimateur de canal à un temps de cohérence donné. La méthode MMSE (Minimum Mean Square Error) est retenue, comparée à d'autres. Pour la performance des systèmes massifs MIMO, nous nous sommes appesantis sur les méthodes de diversité des antennes (diversité d'ordre N), les méthodes de coding, les méthodes d'accès OFDMA et les méthodes d'égalisation pour montrer qu'effectivement le fait d'utiliser de nombreuses antennes au niveau des stations de base améliore et contribue aux gains recherchés en débits. Avec les systèmes massifs MIMO, nous avons montré que l'apport antennaire est bien reconnu dans la gestion des interférences. Un algorithme de calcul de débit à l'Uplink a été réalisé avec trois récepteurs conventionnels que sont le MRC (Maximum Ratio Combiner), le ZF (Zero-Forcing) et le MMSE (Minimum Mean Square Error). Les simulations ont permis de comparer les différentes approches. En faisant varier la puissance de contamination des symboles pilotes, nous observons la convergence des courbes ZF et MMSE. Si le nombre des cellules L augmentent, nous constatons que plus la puissance de contamination des symboles pilotes (pp) est élevée, plus la capacité diminue dans le canal. Après plusieurs itérations, notre algorithme converge vers une asymptote (régime stationnaire et linéaire) où les échantillons à la sortie des détecteurs s’approchent de la séquence de données émises. Le SINR obtenu avec les détecteurs conventionnels permet le calcul des débits respectifs dans le canal avec le théorème de SHANNON
This thesis made it possible to work on the efficiency of a channel of massive MIMO systems for which it is necessary to determine the throughput at the Uplink of the terminals present in their respective cells. As an assumption, the frequency band in TDD mode is reused in each cell. All symbols are propagated asynchronously by the terminals present in the cells, not effectively preventing intra- and inter-symbol interactions at the base stations. These signals encounter many obstacles on their path that lead to delays, signal losses (destructive), signal regenerations (constructive) with various types of modulation (amplitude, frequency, phase), etc. The path loss in the channel is highlighted with the different values taken by the attenuation coefficient chosen during the simulations. Faced with this situation, it was necessary to look for the best and most robust channel estimator at a given consistency time. The MMSE (Minimum Mean Square Error) method is used, compared to others. For the performance of massive MIMO systems, we have focused on antenna diversity methods (N-order diversity), coding methods, OFDMA access methods and equalization methods to show that effectively using multiple antennas at base stations improves and contributes to the desired rate gains. With massive MIMO systems, we have shown that antennar contribution is well recognized in interference management. An algorithm for calculating the flow rate at the Uplink was developed using three conventional receivers: the MRC (Maximum Ratio Combiner), the ZF (Zero-Forcing) and the MMSE (Minimum Mean Square Error). The simulations made it possible to compare the different approaches. By varying the contamination power of the pilot symbols, we observe the convergence of the ZF and MMSE curves. If the number of L cells increases, we find that the higher the contamination power of the pilot symbols (pp), the lower the capacity in the channel. After several iterations, our algorithm converges to an asymptote (stationary and linear regime) where the samples at the detector output approach the transmitted data sequence. The SINR obtained with conventional detectors allows the calculation of the respective flows in the channel with the SHANNON theorem
APA, Harvard, Vancouver, ISO, and other styles
37

Lalanne, Vincent. "Gestion des risques appliquée aux systèmes d’information distribués." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3052/document.

Full text
Abstract:
Dans cette thèse nous abordons la gestion des risques appliquée aux systèmes d’information distribués. Nous traitons des problèmes d’interopérabilité et de sécurisation des échanges dans les systèmes DRM et nous proposons la mise en place de ce système pour l’entreprise: il doit nous permettre de distribuer des contenus auto-protégés. Ensuite nous présentons la participation à la création d’une entreprise innovante qui met en avant la sécurité de l’information, avec en particulier la gestion des risques au travers de la norme ISO/IEC 27005:2011. Nous présentons les risques liés à l’utilisation de services avec un accent tout particulier sur les risques autres que les risques technologiques; nous abordons les risques inhérents au cloud (défaillance d’un provider, etc...) mais également les aspects plus sournois d’espionnage et d’intrusion dans les données personnelles (Affaire PRISM en juin 2013). Dans la dernière partie nous présentons un concept de DRM d’Entreprise qui utilise les métadonnées pour déployer des contextes dans les modèles de contrôle d’usage. Nous proposons une ébauche de formalisation des métadonnées nécessaires à la mise en œuvre de la politique de sécurité et nous garantissons le respect de la réglementation et de la loi en vigueur
In this thesis we discuss the application of risk management to distributed information systems. We handle problems of interoperability and securisation of the exchanges within DRM systems and we propose the implementation of this system for the company: it needs to permit the distribution of self-protected contents. We then present the (our) participation in the creation of an innovative company which emphasizes on the security of information, in particular the management of risks through the ISO/IEC 27005:2011 standard. We present risks related to the use of services, highlighting in particular the ones which are not technological: we approach inheritent risks in clouds (provider failure, etc ...) but also the more insidious aspects of espionage and intrusion in personal data (Case PRISM in June 2013). In the last section, we present a concept of a DRM company which uses metadata to deploy settings in usage control models. We propose a draft formalization of metadata necessary for the implementation of a security policy and guarantee respect of regulations and legislation
APA, Harvard, Vancouver, ISO, and other styles
38

Habert, Sabine. "Gestion d'objets et migration dans les systèmes répartis." Paris 6, 1989. http://www.theses.fr/1989PA066601.

Full text
Abstract:
Ce memoire aborde quelques-uns des problemes poses par la gestion d'objets dans les sytemes d'exploitation repartis a objets. L'approche objet permet de definir des mecanismes generiques pour la gestion des ressources d'un systeme: l'objet etant le composant elementaire du systeme, il est l'unite de manipulation pour la communication, la mobilite et le stockage, ainsi que pour le maintien de la coherence et la gestion de la synchronisation. Nous avons participe a la conception et a la realisation de deux systemes d'exploitation experimentaux repartis a objets, sos et cool. Il s'agit de systemes ouverts, permettant a l'utilisateur d'enrichir ou de modifier les fonctions qu'ils offrent. Notre travail, dans sos comme dans cool, a porte sur les fonctions de base du systeme d'exploitation pour la gestion des objets: representation, creation et destruction des objets, relations inter-objets, localisation et migration
APA, Harvard, Vancouver, ISO, and other styles
39

Bellosta, Marie-Jo. "Systèmes d'interfaces pour la gestion d'objets persistants, Omnis." Paris 6, 1992. http://www.theses.fr/1992PA066034.

Full text
Abstract:
Les SGBDOO ont pour principale motivation d'apporter une solution nouvelle aux problèmes rencontrés par les applications ayant à manipuler de grands volumes de données complexes. En combinant les avantages des SGBD et des systèmes OO, ils apportent un meilleur support des objets complexes et une plus grande productivité des programmeurs d'applications par rapport aux systèmes relationnels. Dans ce contexte, cette thèse propose un système d'interfaces pour la gestion d'objets, omnis, destiné à faciliter la connexion entre des outils OO tels que des compilateurs, interpreteurs ou programme CAO et un gérant extensible d'objets afin de fournir un support au stockage des objets persistants et partagés. Omnis a pour objectif de rendre le gérant de schéma indépendant du modèle objet qu'il accueille. Son originalité réside dans sa capacité à s'adapter à différents modèles objets via son analyse des modèles et son extensibilité. L'analyse des modèles décompose tout modèle objet en au moins cinq sous-modèles: instanciation, héritage, agrégation, composition et client. Les sémantiques de chaque sous-modèle sont définies par un ensemble d'invariants et un ensemble d'opérations. Ainsi, l'accueil d'un nouveau modèle consiste à spécialiser les sous-modèles pertinents en redéfinissant ou en enrichissant leurs invariants et leurs opérations. L'extensibilité d'omnis est due à son modèle objet réflexif permettant la création dynamique d'objets de meta-description pour capturer de nouveaux modèles objets. Outre les bénéfices traditionnels de réutilisabilité et d'extensibilité, cette approche ouvre la voie à l'intéropérabilité entre systèmes basés sur différents modèles objets en fournissant une uniformité dans les protocoles de gestion de schéma, d'accès et de représentation d'objets
APA, Harvard, Vancouver, ISO, and other styles
40

Salem, Yassine. "L'utilisation des systèmes experts en informatique de gestion." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090027.

Full text
Abstract:
Actuellement c'est la programmation procédurale, exprimée à travers les langages impératifs, qui est utilisée pour résoudre les problèmes de gestion. L'objectif de cette thèse est, après une étude comparative entre l'approche déclarative (S. E. : systèmes experts) et l'approche procédurale pour la réalisation des applications de gestion, de proposer, en fonction du problème à résoudre, l'emploi de l'approche la plus apte à produire des programmes économiques à la réalisation et en maintenance. Une proposition des spécifications d'un langage approprié aux problèmes de gestion ainsi que les règles de passage d'un prototype en prolog en son programme cobol équivalent ont été abordées
Actually it's the procedural programmation expressed through imperative languages which is used to resolve management problems. The aim of our thesis is to perform a comparative study between declarative approach (E. S. : expert system) and the procedural one to realize management applications and then to propose, according to the nature of the problem, the use of the most efficient method able to produce economic programs in realization and in maintaince. Specifications of problem's management language and rules of prolog prototype transfer to his equivalent Cobol program have been introduced here
APA, Harvard, Vancouver, ISO, and other styles
41

Marquet, Kevin. "Gestion de mémoire à objets pour systèmes embarqués." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Marquet.pdf.

Full text
Abstract:
La mise au point de systèmes embarqués pose plusieurs problèmes liés au matériel sous-jacent. On citera en particulier l'existence de plusieurs types de mémoires sur le même appareiL ou les faibles ressources des petits appareils tels que les capteurs de terrain. Dans ce contexte, les études concernant les algorithmes de ramasse-miettes ne sont plus valides. Un premier résultat de cette thèse est d'avoir comblé ce manque en réalisant une étude poussée de la complexité des algorithmes de ramasse-miettes existants. À partir de cette étude, les paramètres fins qui influent sur l'efficacité de ces algorithmes ont pu etre identifiés. Il a également été possible de montrer qu'il est nécessaire d'adapter, en terme de choix de ramasse-miettes, la gestion mémoire à la fois aux applications et au matériel. Il a été défini et implémenté, au sein d'un vrai système Java, une nouvelle architecture de gestion de la mémoire adaptée aux systèmes visés. Le modèle proposé fait le pont entre les différentes contraintes exprimées. D'une part les contraintes matérielles dûes aux propriétés très différentes des mémoires que l'on peut trouver sur les classes d'appareil considérées. D'autre part, les spécificités des différents mécanismes de ramasse-miettes existants. Le principe de base de cette architecture est de permettre la gestion de chaque espace mémoire (physique ou logique) par un gestionnaire adapté aux propriétés de la mémoire sous-jacente, plutôt que d'implémenter un gestionnaire spécifique à une seule architecture mémoire. Afin d'isoler la gestion du placement des données tout en améliorant la flexibilité, la portabilité et les performances de la gestion mémoire dans le contexte présenté, un langage dédié à la gestion de mémoires à objets a été proposé. Ce langage dédié permet d'écrire des politiques de placement complètes, qui sont ensuite validées et optimisées par le compilateur de ce langage. Ce compilateur produit un code intégré à la machine virtuelle. Une politique de placement comporte à la fois la définition des espaces mémoire et un certain nombre de règles de placement permettant de spécifier le placement des données au niveau système et applicatif. Le problème du besoin de mémoire non-réinscriptible a été adressé par plusieurs optimisations. Premièrement, des moyens de maximiser son utilisation on été proposés. Deuxièmement, le marquage des objets survivants à une collection de données a pu être amélioré.
APA, Harvard, Vancouver, ISO, and other styles
42

Iksal, Sébastien. "Spécification déclarative et composition sémantique pour des documents virtuels personnalisables." Paris, EHESS, 2002. http://www.theses.fr/2002EHES0144.

Full text
Abstract:
Le Document Virtuel Personnalisable est une approche intéressante pour personnaliser, réutiliser et automatiser l’accès à l’information. Un DVP compose dynamiquement un document réel à partir d’informations provenant de sources diverses qui satisfont au mieux à des besoins utilisateurs. En effet, les utilisateurs ne sont pas tous intéressés par les mêmes informations, ils n’ont pas les mêmes attentes, acquis et connaissances. Toutes ces caractéristiques sont représentées au sein d’un modèle utilisateur. Nous proposons une approche de conception de DVP qui repose d'une part sur un principe de spécification déclarative des processus de sélection, d’organisation et d’adaptation par un auteur, ce qui renforce la cohérence sémantique du document généré, et d’autre part sur un principe de composition d’un hypermédia pour un lecteur particulier. Cette approche est fondée sur quatre ontologies. Il s’agit d’une approche qui repose sur la réutilisation de fragments d’information et qui est elle-même réutilisable
The Adaptive Virtual Document is a very convenient approach to adapt, reuse and automate information access on the Web. An AVD creates a real document on the fly with informations coming from various sources and according to user’s needs. Every users are not concerned by the same information, they don’t have the same objectives, experience, background and knowledge. All theses user’s features are represented in a user model. We propose a new approach for AVD in two parts. First, an author creates a generic document which is a declarative specification for the processes of selection, organization and adaptation, this author oriented specification increases the semantic coherence of a document. Next, the system composes on the fly an hypermedia from this generic document and according to a particular reader. This approach is based on four ontologies. Our approach is based on the reusability of information on the Web, and it was thought in order to be reusable in different contexts
APA, Harvard, Vancouver, ISO, and other styles
43

Al, Hajj Hassan Mohamad. "Parallélisme et équilibrage de charges dans le traitement de la jointure sur des architectures distribuées." Phd thesis, Université d'Orléans, 2009. http://tel.archives-ouvertes.fr/tel-00465073.

Full text
Abstract:
L'émergence des applications de bases de données dans les domaines tels que le data warehousing, le data mining et l'aide à la décision qui font généralement appel à de très grands volumes de données rend la parallélisation des algorithmes des jointures nécessaire pour avoir un temps de réponse acceptable. Une accélération linéaire est l'objectif principal des algorithmes parallèles, cependant dans les applications réelles, elle est difficilement atteignable : ceci est dû généralement d'une part aux coûts de communications inhérents aux systèmes multi-processeur et d'autre part au déséquilibre des charges des différents processeurs. En plus, dans un environnement hétérogène multi-utilisateur, la charge des différents processeurs peut varier de manière dynamique et imprévisible. Dans le cadre de cette thèse, nous nous intéressons au traitement de la jointure et de la multi-jointure sur les architectures distribuées hétérogènes, les grilles de calcul et les systèmes de fichiers distribués. Nous avons proposé une variété d'algorithmes, basés sur l'utilisation des histogrammes distribués, pour traiter de manière efficace le déséquilibre des données, tout en garantissant un équilibrage presque parfait de la charge des différents processeurs même dans un environnement hétérogène et multi-utilisateur. Ces algorithmes sont basés sur une approche dynamique de redistribution des données permettant de réduire les coûts de communication à un minimum tout en traitant de manière très efficace le problème de déséquilibre des valeurs de l'attribut de jointure. L'analyse de complexité de nos algorithmes et les résultats expérimentaux obtenus montrent que ces algorithmes possèdent une accélération presque linéaire.
APA, Harvard, Vancouver, ISO, and other styles
44

Bah, Abdramane. "Interopérabilité et sécurité des systèmes d'information : application aux systèmes de gestion de l'éducation." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4028.

Full text
Abstract:
Le contrôle d’accès des services partagés est une exigence essentielle pour une fédération de services de différents domaines. Dans cette thèse, nous nous sommes attaqués à deux problèmes de contrôle d’accès : l’autorisation des utilisateurs et la délégation de l’authentification des utilisateurs à leurs propres domaines. Pour répondre à ces problèmes, nous avons proposé une méthode d’autorisation des utilisateurs basée sur la technique de mapping d’attributs et un mécanisme de contrôle d’accès fédéré pour mettre en oeuvre cette méthode d’autorisation. Nous avons proposé une méthode de fédération services pour déléguer l’authentification des utilisateurs à leurs propres domaines. Le principal objectif est de permettre à divers domaines de collaborer malgré l’hétérogénéité de leurs modèles de sécurité
Access control for shared services is an essential requirement for a federation of services from different domains. In this thesis, we tackled two access control problems : authorizing users and delegating user authentication to their own domains. To address these problems, we have proposed a method of authorizing users based on the attribute mapping technique and a federated access control mechanism to implement this authorization method. We have proposed a service federation method to delegate user authentication to their domains. The main objective is to allow various domains to collaborate despite the heterogeneity of their security models
APA, Harvard, Vancouver, ISO, and other styles
45

Legrenzi, Christophe. "Les indicateurs sensibles du pilotage de l'organisation informatisée." Nice, 1994. http://www.theses.fr/1994NICE0003.

Full text
Abstract:
Cette recherche effectuee en collaboration avec une grande entreprise internationale traite de la problematique de la gestion de la composante informatiqsue dans les organisations. Partant du constat general d'improductivite des investissements realises en depit de progres technologiques inegales (paradoxe de solow), elle identifie six causes potentielles de dysfonctionnement : le mythe technologique, la difficulte de conception des systemes d'information, l'homeostasie organisationnelle, l'inadequation des techniques financieres, l'attitude de la fonction informatique au sein de l'entreprise et la faiblesse du controle de gestion informatique. Designant l'inadaptation des elements de base du controle de gestion informatique classique comme le facteur critique d'insucces, elle propose une methode generique duale (entreprise - fonction informatique) de construction d'indicateurs sensibles basee sur les activites, eventuellement completees par des approches de type qualite ou cout-valeur
This research carried out in collaboration with a large international company deals with the problems of inforlation management within organisations. Based on the acknowledged poor productivity of it investments despite the unmatched technological advances (solow's paradox), this study identifies 6 reasons for potential failure : the technological myth, the difficulty of is development, the organisational stagnation, the inadequacy of financial techniques, the behavioural attitude of the it department and the weakness of it controlling function. In addition to highlighting the inappropriateness of traditional it controlling techniques as a critical contributor to failure, this study suggests an alternative method based on both strategic analysis and activity based management techniques. This method may also be complemented with quality or cost-benefit approaches
APA, Harvard, Vancouver, ISO, and other styles
46

Héran, Frédéric. "Analyse structurale des systèmes de production : vers un nouveau paradigme d'organisation intégrée." Université Louis Pasteur (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR10019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

NGUYEN, HONG QUANG. "Gestion de memoire virtuelle avec garanties de qualite de service pour les applications multimedia reparties." Evry-Val d'Essonne, 1996. http://www.theses.fr/1996EVRY0033.

Full text
Abstract:
Cette these traite de la gestion de memoire virtuelle avec garanties de qualite de service (qos) pour les applications multimedia reparties. Sa contribution principale est d'apporter une solution permettant la garantie forte sur la disponibilite de la ressource memoire pour les ap- plications multimedia reparties. Cependant, les modeles, algorithmes et mecanismes proposes permettent egalement de prendre en compte la garantie faible ou le meilleur effort, dans le cas ou les applications et/ou les utilisateurs se satisfont d'exigences moins strictes. Nous avons ainsi etudie de maniere detaillee le schema de gestion de la memoire virtuelle dans un systeme reparti, afin d'identifier les composantes systeme participant a cette gestion et leurs roles respectifs. A l'issue de cette etude, nous avons propose un modele de gestion de qos qui est fonde sur la base du concept de flot de media continu reparti (fmc). Avant de commencer un fmc, l'application doit conclure un contrat de qos avec le systeme dans lequel decrivent la qos demandee par ce fmc et l'engagement du systeme pour garantir la fourniture de cette qos. Sur chaque site, un gestionnaire de qos (qosmgr) negocie et controle l'execution des contrats de qos. Ce gestionnaire est egalement responsable de la coordination et du controle des ressources sur le site. Afin d'integrer la qos dans les ressources systeme, nous proposons une approche permettant la cohabitation d'une partie qos avec des services standard dans chaque gestionnaire de ressource. Ensuite, nous avons applique cette approche d'integration de qos sur le serveur de fichiers unix, un gestionnaire de memoire secondaire. Les sources d'indeterminisme dans la gestion du systeme de fichiers unix ont ete localisees. Un nouveau serveur de fichiers avec qos a ete concu. En mode qos, ce nouveau serveur utilise les fonctions de la partie qos pour generer les donnees a la source d'un fmc a partir d'un fichier ordinaire unix en fonction d'un contrat de qos. Enfin, pour valider le modele et les solutions ainsi proposes, nous avons effectue la mise en oeuvre d'un prototype de notre modele sur un systeme reparti a base de micro-noyau, le systeme chorus/mix. Le prototype comprend un gestionnaire de qos reparti (qosmgr) et un serveur de fichiers avec qos (qosom). Les facilites offertes par la technologie chorus ont ete exploitees pour realiser les optimisations aux
This dissertation deals with the problem of virtual memory management with quality of service (qos) guarantees for distributed multimedia applications. Our main contribution is about the providing of a solution allowing a strong guarantee on the memory resource available for multimedia applications. However, proposed models, algorithms, and mechanisms allow the soft guarantee and the best effort services as well, if applications and/or users accept more loose requirements. We analyse first the virtual memory management scheme in a distributed system in order to identify system components participating in the memory accesses and their role. Based on analysis results, we propose a qos management model which is built on the continuous media flow (fmc) concept basis. Applications can start a fmc only after having concluded a qos contrat about this fmc with the system. On each site, we propose a new system qos magager (qosmgr) which is responsible for both the interface with local applications for qos contract negociation and control, and the coordination and control of local system resources in order to satisfy concluded qos contracts. System resources under qosmgr controls must be modified or integrated of qos management. In order to do that, we propose a general approach which allows the cohabitation of a qos services part behind the standard one in a system resource manager. We apply then this approach for modifying the unix file server, a secondary memory mana- ger. First, the indeterministic sources of the unix file system management have been identified. This server, in qos mode, uses new functions in the qos part to generate data for a fmc's source, from a data unix file, with respect to its associated qos contract. A prototype of our model has been implemented in a distributed microkernel-based system, namely the chorus/mix system. It consists of a distributed qos manager (qosmgr) and a qos file server (qosom). Chorus technology facilities have been used to optimize the implementation of proposed solutions. The experiences on the first version of this prototype actually running in our laboratory have demonstrated the feasibility and validated our model
APA, Harvard, Vancouver, ISO, and other styles
48

Liroz, Miguel. "Partitionnement dans les systèmes de gestion de données parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-01023039.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données.Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme.Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce.Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles.Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée
APA, Harvard, Vancouver, ISO, and other styles
49

Liroz-Gistau, Miguel. "Partitionnement dans les Systèmes de Gestion de Données Parallèles." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00920615.

Full text
Abstract:
Au cours des dernières années, le volume des données qui sont capturées et générées a explosé. Les progrès des technologies informatiques, qui fournissent du stockage à bas prix et une très forte puissance de calcul, ont permis aux organisations d'exécuter des analyses complexes de leurs données et d'en extraire des connaissances précieuses. Cette tendance a été très importante non seulement pour l'industrie, mais a également pour la science, où les meilleures instruments et les simulations les plus complexes ont besoin d'une gestion efficace des quantités énormes de données. Le parallélisme est une technique fondamentale dans la gestion de données extrêmement volumineuses car il tire parti de l'utilisation simultanée de plusieurs ressources informatiques. Pour profiter du calcul parallèle, nous avons besoin de techniques de partitionnement de données efficaces, qui sont en charge de la division de l'ensemble des données en plusieurs partitions et leur attribution aux nœuds de calculs. Le partitionnement de données est un problème complexe, car il doit prendre en compte des questions différentes et souvent contradictoires telles que la localité des données, la répartition de charge et la maximisation du parallélisme. Dans cette thèse, nous étudions le problème de partitionnement de données, en particulier dans les bases de données parallèles scientifiques qui sont continuellement en croissance. Nous étudions également ces partitionnements dans le cadre MapReduce. Dans le premier cas, nous considérons le partitionnement de très grandes bases de données dans lesquelles des nouveaux éléments sont ajoutés en permanence, avec pour exemple une application aux données astronomiques. Les approches existantes sont limitées à cause de la complexité de la charge de travail et l'ajout en continu de nouvelles données limitent l'utilisation d'approches traditionnelles. Nous proposons deux algorithmes de partitionnement dynamique qui attribuent les nouvelles données aux partitions en utilisant une technique basée sur l'affinité. Nos algorithmes permettent d'obtenir de très bons partitionnements des données en un temps d'exécution réduit comparé aux approches traditionnelles. Nous étudions également comment améliorer la performance du framework MapReduce en utilisant des techniques de partitionnement de données. En particulier, nous sommes intéressés par le partitionnement efficient de données d'entrée avec l'objectif de réduire la quantité de données qui devront être transférées dans la phase intermédiaire, connu aussi comme " shuffle ". Nous concevons et mettons en œuvre une stratégie qui, en capturant les relations entre les tuples d'entrée et les clés intermédiaires, obtient un partitionnement efficace qui peut être utilisé pour réduire de manière significative le surcharge de communications dans MapReduce.
APA, Harvard, Vancouver, ISO, and other styles
50

Petit, Loïc. "Gestion de flux de données pour l'observation de systèmes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849106.

Full text
Abstract:
La popularisation de la technologie a permis d'implanter des dispositifs et des applications de plus en plus développés à la portée d'utilisateurs non experts. Ces systèmes produisent des flux ainsi que des données persistantes dont les schémas et les dynamiques sont hétérogènes. Cette thèse s'intéresse à pouvoir observer les données de ces systèmes pour aider à les comprendre et à les diagnostiquer. Nous proposons tout d'abord un modèle algébrique Astral capable de traiter sans ambiguïtés sémantiques des données provenant de flux ou relations. Le moteur d'exécution Astronef a été développé sur l'architecture à composants orientés services pour permettre une grande adaptabilité. Il est doté d'un constructeur de requête permettant de choisir un plan d'exécution efficace. Son extension Asteroid permet de s'interfacer avec un SGBD pour gérer des données persistantes de manière intégrée. Nos contributions sont confrontées à la pratique par la mise en œuvre d'un système d'observation du réseau domestique ainsi que par l'étude des performances. Enfin, nous nous sommes intéressés à la mise en place de la personnalisation des résultats dans notre système par l'introduction d'un modèle de préférences top-k.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography