To see the other types of publications on this topic, follow the link: Flux d'informations.

Dissertations / Theses on the topic 'Flux d'informations'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Flux d'informations.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

BOUESSEL, DU BOURG TRUBERT ANNE MARIE. "Les flux transfrontieres d'informations : le systeme d'information des entreprises multinationales." Rennes 1, 1990. http://www.theses.fr/1990REN11025.

Full text
Abstract:
Le caractere transfrontiere des flux d'informations traitees et transmises par le systeme d'information d'une firme multinationale souleve des problemes politiques, economiques, juridiques, sociaux et culturels. La these traite les problemes de gestion du s. I. Des multinationales sous l'angle organisationnel et strategique, l'angle technologique et enfin l'angle juridique. Ces trois volets de la question font l'objet de la premiere partie. La seconde partie presente six monographies realisees dans de grosses firmes multinationales, a partir d'entretiens semi-directifs avec les differents responsables du s. I. De ces firmes. Les six entreprises sont groupees par trois : d'une part celles dont le s. I. Est en cours d'elaboration, d'autre part celles qui ont un s. I. Structure, parformant et en adequation avec les objectifs strategiques de la direction generale de la firme. La deuxieme partie comprend en outre une synthese des monographies, synthese qui debouche sur des perspectives d'evolution et d'amelioration et sur des suggestions en vue d'une meilleure performance du s. I. D'une entreprise multinationale
The transborder feature of the data flows which are processed and transmitted through a multinational company's information system, raises political, economical, legal, social and cultural issues. The present thesis deals with the management issues about multinational companies i. S. In three fields : strategy and organization, technology, law. Is in part i. In part ii, six monographies are presented about six importantmultinational firms. These specific studies have been carried out through semi-free talks with these firms' i. S. Chief executive officiers. Three of these firms are implementing an evolving i. S. , the other three are managing an elaborated i. S. (i. E. An i. S. Which is structured, performant, accurate and fitting the firm's strategic goals. The part ii also includes a synthesis of the monographies which leads to evolution and improvement prospects and alsoto suggestions towards a better performance of the multinational firms's information system
APA, Harvard, Vancouver, ISO, and other styles
2

Chartron, Ghislaine. "Analyse des corpus de données textuelles, sondage de flux d'informations." Paris 7, 1988. http://www.theses.fr/1988PA077211.

Full text
Abstract:
Realisation d'un outil d'extraction des concepts significatifs d'un corpus quelconque de documents "homogenes", l'originalite defaut de respecter les exigences d'un univers ouvert: l'outil a ete appele lexinet. Les traitements ont ete developpes dans la perspective de traiter des sources d'informations diverses en un temps limite, sans s'appuyer sur des lexiques preetablis. Les techniques employees associent des methodes linguistiques elementaires, des methodes statistiques et l'intervention d'un expert humain, specialiste du domaine traite
APA, Harvard, Vancouver, ISO, and other styles
3

Chartron, Ghislaine. "Analyse des corpus de données textuelles sondage de flux d'informations /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37612583z.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Viller-Hamon, Isabelle. "Flux financiers, flux d'informations et reseaux internationaux : l'agence havas et le jeu des echanges, 1850-1914." Paris 3, 2000. http://www.theses.fr/2000PA030175.

Full text
Abstract:
Les agences de presse se constituent en europe au xixeme siecle : l'agence havas en 1832, a paris ; la continental telegraphen compagnie en 1849 a berlin et la reuter's telegram company en 1851 a londres. Les << trois grandes >> s'assurent des 1859 le monopole des nouvelles et la mise en place de reseaux de transmission internationaux. Le developpement des activites de bourse a partir des annees 1850 appelle la constitution de services agenciers specialises dont la fiabilite et la rapidite assurent la bonne marche des affaires et la connexion des marches boursiers europeens. Les dimensions commerciales des activites agencieres impliquent des attitudes specifiques, se traduisant par une certaine propension a menager les susceptibilites. Le cas des relations entre abonnes financiers et l'agence havas montre tout particulierement les multiples degres d'influence agissant sur les structures agencieres. Flux et reseaux agenciers sont l'empreinte de preoccupations geopolitiques et geoeconomiques. Rapidite et discretion des informations financieres temoignent de la meme facon de l'interference entre milieux financiers et agenciers.
APA, Harvard, Vancouver, ISO, and other styles
5

Cheutet, Vincent. "Contribution à la continuité des flux d'informations et de connaissances dans le lien conception-production." Habilitation à diriger des recherches, Université de Technologie de Compiègne, 2012. http://tel.archives-ouvertes.fr/tel-00801687.

Full text
Abstract:
Dans un contexte de la révolution de l'information numérique, les entreprises doivent proposer dans un temps court un système innovant de qualité et à moindre coût, et ce défi ne peut être relevé qu'avec des acteurs qui soient motivés et qui collaborent ensemble. Les présents travaux de recherche visent donc à faciliter cette collaboration et le travail à valeur ajoutée, en contribuant à la continuité des flux d'informations et de connaissances. Au sein du LISMMA, nous avons décliné ces travaux sur trois axes. Le premier axe vise à assurer les flux par l'interopérabilité des systèmes d'information par la médiation et l'unification à base de standards. Le deuxième axe se focalise sur la gestion des connaissances permettant aux flux d'être compris et interprétés par les acteurs. Enfin, nous avons proposé l'utilisation des ontologies pour assurer la cohérence des informations transitant dans les flux. Ces travaux ont donné lieu au développement de démonstrateurs, testés sur des cas industriels et/ou in-situ dans une entreprise.
APA, Harvard, Vancouver, ISO, and other styles
6

He, Jianguo. "Modélisation des flux d'informations liées aux outils coupants : développement de méthodologies et d'outils de gestion adaptés." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0074.

Full text
Abstract:
A l'heure où la qualité et trentabilité sont devenues les principaux buts de l'appareil de production, un intérêt croissant se manifeste pour la gestion des outils coupants (GOC). Elle apparaît comme une des clés permettant d'atteindre ces objectifs. Une méthodologie de GOC est développée dans ces travaux. L'étude contribue essentiellement : à l'analyse des activités relatives à la GOC et à la structuration de tous les éléments d'information nécessaires, à l'établissement du schéma fonctionnel de la base de données générique et d'un système de codification d'outils, à la modélisation de l'ensemble des tâches et des liaisons logiques de la GOC, à la simulation dynamique du flux des outils en considérant les lois qui régissent la destruction des outils, au développement de plusieurs stratégies de remplacement d'outil basées sur la nature stochastique de la durée de vie d'un outil et leur validation par la simulation, à l'élaboration d'un modèle de calcul technico-économique et à l'évaluation de la performance du système GOC, à l'aide à la mise en place de notre méthodologie et des outils de gestion dans les cas industriels
At a time when quality and profitability have become the main demands regarding the production apparatus, increasing interest has arisen for tool management, which appears as one of the major keys to achieve these goals. A tool management methodology has been developed in this paper. It mainly deals with : the analysis of all the activities linked with tool management and t he structuration of the necessary pieces of information, - the building up of the functional relationships between the database entities, as well as of a tool codification system, - the modelisation of the tasks and the Logical relations of tool management, - the dynamic tool flow simulation, taking the Laws into account , which describe tool failure probability, - the development of several tool replacement strategies based on the stochastic nature of tool lite and their validation through simulation, the elaboration of a basic module for technical and economie calculation and the output of which are indicators enabling the user to appraise the performance of the tool management system
APA, Harvard, Vancouver, ISO, and other styles
7

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'informations changeant au cours du temps." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00402644.

Full text
Abstract:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps.

L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données.

Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples.
APA, Harvard, Vancouver, ISO, and other styles
8

Hamana, Sabri. "Modélisation et simulation des flux d'informations Ville-Hôpital et évaluation de leur impact sur le parcours de soins." Thesis, Lyon, 2017. https://tel.archives-ouvertes.fr/tel-02873368.

Full text
Abstract:
Cette thèse a pour but de proposer un cadre d’analyse permettant d’évaluer l’impact de n’importe quel SI de santé sur la prise en charge d’une population de patients au sein d’un territoire de santé. Le cadre d’analyse que nous proposons a été construit sur la base d’une étude de l’existant réalisée au sein de trois établissements hospitaliers appartenant à trois territoires de santé différents : le Centre Léon Bérard (CLB) à Lyon, le Centre Jean Perrin (CJP) à Clermont-Ferrand et le Centre Hospitalier (CH) de Sens en Bourgogne-Franche-Comté. L’approche que nous proposons repose sur (i) un cadre de modélisation basé sur le formalisme EPC permettant la description conjointe des parcours-patients et des circuits d’informations correspondants, grâce à une bibliothèque et à une méthode de modélisation dédiées au SI de santé que nous proposons, et (ii) un outil de simulation et d’évaluation (EVAL-THIS) basé sur une nouvelle classe de réseaux de Petri appelée Net-THIS (Territorial Healthcare Information Systems). Cet outil permet de quantifier la performance d’un SI de santé sur le plan de la gestion des informations médicales relatives à la prise en charge d’une population de patients. La méthodologie proposée est reproductible à toute population de patients et/ou SI de santé. Enfin, nous avons réalisé deux analyses sur un cas d’étude réel : (i) une analyse coût-efficacité, basée sur une approche « micro-costing », qui porte sur l’informatisation de la consultation médicale dans le cadre du parcours de soins en cancérologie, et (ii) une analyse de l’efficacité de l’informatisation du parcours de soins dans son ensemble
The French health policy which aim to improve health system by the modernization of health information systems has created a latent need, that of measurement of the impact of information systems on the value creation within healthcare institutions, hence the need of tools and methods for carrying out this evaluation work.The aim of this thesis is to propose a framework for the modelling, analysis and cost evaluation of territorial health-care information systems. For this purpose, we propose a new class of timed Petri nets, called THIS nets (Territorial Health-care Information Systems), which formally describes patient care-pathways, relevant information flows and their interactions. THIS nets are then used for verification of the health information systems and evaluation of their performances such as cycle time distribution and probability of information availability at some target time. A real example of cancer patient health-care information system is used to illustrate the usefulness of the proposed approach. We show that advanced information system allows earlier start of the medical consultations and thus a more efficient care pathway. A case study is proposed through a cost-effectiveness analysis on Electronic Health Record (EHR) implementation versus the patient's paper file in the context of cancer visits. Results show that the adoption of the developed HIS strictly dominated (i.e., was both less costly and more effective) the use of a low HIS with the patient's paper file. Such positive impact was demonstrated on the long term through a service quality analysis using the provided THIS net
APA, Harvard, Vancouver, ISO, and other styles
9

Zimmermann, Jakub. "Détection d'intrusions paramétrée par la politique par contrôle de flux de références." Rennes 1, 2003. http://www.theses.fr/2003REN10155.

Full text
Abstract:
Nous proposons une approche de la d'tection d'intrusions orient'e politique bas'e sur un contr"le de flux d'informations. Nous construisons un modSle formel du systSme d'exploitation sous forme de canaux de flux d'informations et nous exprimons une politique de confidentialit' et d'int'grit' sous forme d'un ensemble de domaines, c'est. Dire de graphes de flux l'gaux. Nous en d'duisons alors un algorithme de d'tection des violations de cette politique. A titre exp'rimental, nous avons implant' cette approche sous Linux. Ce systSme se pr^te assez bien. La mod'lisation que nous utilisons et la politique de s'curit', mise en oeuvre par d'faut au moyen du contr"le d'accSs discr'tionnaire, peut ^tre traduite automatiquement sous forme de domaines dans notre modSle. Au cours de nos tests, cette approche s'est r'v'l'e fiable pour d'tecter des violations effectives de la politique de s'curit', y compris dans le cas d'attaques nouvelles ou inconnues. D'autre part, le taux de fausses alertes est faible.
APA, Harvard, Vancouver, ISO, and other styles
10

Debert, Maxime. "Stratégies optimales multi-critères, prédictives, temps réel de gestion des flux d'énergie thermique et électrique dans un véhicule hybride." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00867007.

Full text
Abstract:
La gestion d'énergie d'un véhicule hybride consiste à développer une stratégie, qui détermine à chaque instant la répartition des flux d'énergie thermique et électrique, minimisant la consommation globale du véhicule. La modélisation de la consommation du véhicule hybride permet d'écrire cette problématique sous la forme d'un problème d'optimisation dynamique sous contraintes d'évolutions. Ce problème est résolu de façon optimale lorsque l'ensemble des conditions de roulage sont connues à priori. La commande optimale obtenue sert de référence pour évaluer la performance des stratégies embarquées dans le véhicule. En s'appuyant sur la théorie de l'optimisation optimale, deux stratégies ont été crées : l'une prédictive qui a été testée sur un simulateur numérique et une autre, reposant sur le principe du problème dual, qui a été embarqué avec succès sur deux véhicules hybrides conventionnels. Pour les hybrides rechargeables, leur capacité énergétique et la possibilité de se recharger sur le réseau électrique libère des contraintes dans la problématique d'optimisation énergétique. C'est pourquoi, une nouvelle stratégie spécifique a été développée dans l'objectif de profiter au maximum de l'énergie électrique embarquée pour minimiser les émissions du véhicule. Pour l'ensemble des véhicules hybrides, la batterie est un composant clef dont le vieillissement vient modifier sa rentabilité économique et énergétique. C'est pourquoi un observateur a été conçu pour fournir une information précise de la température interne des cellules. Cette information est utilisée par une stratégie spécifique optimisant la consommation tout en préservant la batterie des températures extrêmes, nuisibles à sa longévité.
APA, Harvard, Vancouver, ISO, and other styles
11

Sali, Mustapha. "Exploitation de la demande prévisionnelle pour le pilotage des flux amont d'une chaîne logistique dédiée à la production de masse de produits fortement diversifiés." Phd thesis, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00776217.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au mode d'exploitation de la demande prévisionnelle pour le pilotage des flux amont dans un contexte de production de masse de produits fortement diversifiés et de dispersion géographique des unités de production. Lorsque l'information prévisionnelle est mal exploitée, des phénomènes, similaires à l'effet coup de fouet connu en chaîne logistique aval, apparaissent en chaîne logistique amont altérant durablement sa performance. Dans le but de contrer certains des mécanismes à l'origine de ces phénomènes, nous avons proposé une adaptation de la MRP permettant d'exploiter au mieux l'information prévisionnelle. L'adaptation de la MRP repose sur une méthode de calcul des besoins basée sur l'exploitation statistique des nomenclatures de planification et la diffusion d'informations sur les niveaux de recomplètement le long de la chaîne logistique amont. Cette approche a été testée avec succès sur plusieurs cas d'application dans l'industrie automobile
APA, Harvard, Vancouver, ISO, and other styles
12

Keufak, Tameze Hugues Magloire. "Flux internationaux de capitaux et secret bancaire." Thesis, Clermont-Ferrand 1, 2013. http://www.theses.fr/2013CLF10404.

Full text
Abstract:
Symbole de protection des libertés individuelles, le secret bancaire est perçu par les profanes, avec le développement de la criminalité financière transfrontalière, comme étant un élément qui favorise les fraudes, le blanchiment de capitaux, le financement du terrorisme ainsi que l’évasion fiscale. L’analyse juridique de cette institution nous montre qu’elle est l’élément le plus important de la réussite des opérations ayant pour but les flux internationaux de capitaux, et un facteur qui stimule la réussite économique et la mondialisation. La réglementation et la régulation des flux internationaux de fonds par un certain nombre de législations éparses et variées modifie considérablement la notion du secret bancaire. Une des caractéristiques fondamentales de ce bouleversement est qu’il institue des liens entre les différents opérateurs qui interviennent dans le contrat. Le contrôle de cette opération pousse les Etats à mutualiser leurs efforts et à se mettre ensemble en vue de défendre leurs intérêts financiers respectifs à travers la lutte contre les flux de capitaux illicites. Par ailleurs, la défense de ces intérêts financiers entraine incontestablement la redéfinition substantielle des missions du banquier d’une part, notamment sa façon de percevoir la relation avec la clientèle, de recueillir et d’échanger des informations, ainsi que la coopération avec les autorités publiques et de contrôle internes et internationales. D’autre part, on note du fait de cet élargissement de missions du banquier, une extension des risques pénaux à l’égard de ce dernier. Cependant, la dilution du secret bancaire à l’échelle internationale tant pour des nécessités contractuelles, que pour les nécessités de la lutte contre la criminalité entraine des dérives importantes se manifestant à travers le manque de stratégies adaptées permettant d’éviter dangers et de réagir en cas d’atteinte aux droits de l’Homme. D’où la nécessité de redéfinir un nouveau cadre juridique qui permet non seulement de limiter les atteintes au secret bancaire et aux droits de l’Homme, mais aussi, oblige les différents intervenants dans la chaine des transferts internationaux de fonds, «de jouer aux mêmes règles du jeu», d’être tributaires de mêmes droits, et surtout des mêmes obligations. C’est à ce prix et à ce prix seulement, que le secret bancaire pourra être réhabilité en tant qu’institution fondamentale
The regulation of the international flows of fund by a number of scattered and varied legislations modifies considerably the notion of the bank secrecy. One of the fundamental characteristics of this upheaval is that it establishes links between the various operators who intervene in the contract. The control of this operation urges States to mutualize their efforts and to put itself together to defend their respective financial interests through the fight against the illicit capital flows. Besides, the defense of these financial interest conduct unmistakably the substancial redefining of the banker on one hand, in particular the way it perceives the relation with the clientele, of collects and of exchanges information, as well as the cooperation with the public authorities and control internal and international. On the other hand, we note because of this extension of missions of the banker, an extension of the penal risks towards him
APA, Harvard, Vancouver, ISO, and other styles
13

Matos, Ana Almeida. "Typage du flux d'information sûr: déclassification et mobilité." Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00001765.

Full text
Abstract:
Nous nous intéressons au sujet de la confidentialité et de la déclassification. Nous étudions en particulier l'usage d'un système de types et d'effets pour assurer de manière statique des politiques de sécurité flexibles pour un langage d'ordre supérieur impératif avec concurrence. Une méthodologie générale pour définir et prouver la correction du système de types et d'effets pour de telles propriétés est présentée. Nous considérons deux points principaux : - La question de trouver un mécanisme flexible de contrôle d'information qui permet la déclassification. Notre mécanisme de déclassification prend la forme d'une déclaration de politique locale de flux qui implémente une politique locale de flux d'information. - La question jusqu'ici inexplorée de contrôler les flux d'information dans un environnement global. Notre modèle de réseau, qui généralise l'environnement global, inclut une notion de domaine et une primitive de migration standard pour le code et les ressources. De nouvelles formes de perte d'information, introduites par la mobilité du code, sont révélées. Dans les deux cas mentionnés ci-dessus, pour prendre en compte les politiques de flux globales nous introduisons des généralisations de la non-interférence, qui sont nommées non-divulgation et non-divulgation pour les réseaux. Ces généralisations sont obtenues `a l'aide d'une représentation concrète des treillis de sécurité, où les nivaux de confidentialité sont des ensembles de principaux, semblables `a des listes de contrôle d'accès.
APA, Harvard, Vancouver, ISO, and other styles
14

Almeida, Matos Anna Gualdina. "Typage du flux d'information sur déclassification et mobilité." Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1341.

Full text
Abstract:
Nous nous intéressons au sujet de la confidentialité et de la déclassification. Nous étudions en particulier l'usage d'un système de types et d'effets pour assurer de manière statique des politiques de sécurité flexibles pour un langage d'ordre supérieur impératif avec concurrence. Une méthodologie générale pour définir et prouver la correction du système de types et d'effets pour de telles propriétés est présentée. Nous considérons deux points principaux :– La question de trouver un mécanisme flexible de contrôle d'information qui permet la déclassification. Notre mécanisme de déclassification prend la forme d'une déclaration de politique locale de flux qui implémente une politique locale de flux d'information. – La question jusqu'ici inexplorée de contrôler les flux d'information dans un environnement global. Notre modèle de réseau, qui généralise l'environnement global, inclut une notion de domaine et une primitive de migration standard pour le code et les ressources. De nouvelles formes de perte d'information, introduites par la mobilité du code, sont révélées. Dans les deux cas mentionnés ci-dessus, pour prendre en compte les politiques de flux globales nous introduisons des généralisations de la non-interférence, qui sont nommées non-divulgation et non-divulgation pour les réseaux. Ces généralisations sont obtenues à l'aide d'une représentation concrète des treillis de sécurité, où les nivaux de confidentialité sont des ensembles de principaux, semblables à des listes de contrôle d'accès
We adress the issue of confidentiality and declassification in a language-based security approach. We study in particular the use of refined type and effect systems for staticallsy enforcing flexibale information flow policies over imperative higher – order languages with concurrrency. A general methodology for defining and proving the soundness of the type and effect system with respect to such properties is presented. We consider two main topics :- the long standing issue of finding a flexible information control mechanism that enables declassification. Our declassification mechanism takes the form of a local flow policy declaration that implements a local information flow policy- the largely unexplored topic of controlling information flow in a global computing setting, our network model, which naturally generalizeq the local setting, includes a notion of a domain and a standard migration primitive for code and resources. New forms of security leaks that are introduced by code mobility are revealed. In both the above settings, to take into account dynamic flow policies we introduce generalizatios of non-interference respectively named the « non disclosure « and » non disclosure for networks » for policies. Their implementation is supported by a concrete presentation of the security lattice where confidentiality levels are sets of principals , similar to acces control lists
APA, Harvard, Vancouver, ISO, and other styles
15

Zanioli, Matteo. "Information flow analysis by abstract interpretation." Paris 7, 2012. http://www.theses.fr/2012PA077262.

Full text
Abstract:
Protéger la confidentialité de l’information numérique stockée ou en transfert sur des réseaux publics est un problème récurrent dans le domaine de la sécurité informatique. Le but de cette thèse est de fournir des résultats théoriques et expérimentaux sur une analyse de flux permettant la vérification automatique de l’absence de fuite possible d’information sensible. Notre approche est basée sur la théorie de l’Interprétation Abstraite et consiste à manipuler une approximation de la sémantique des programmes. Nous détectons les différentes dépendances entre les variables d’un programme en utilisant des formules propositionnelles avec notamment le domaine Pos. Nous étudions les principales façons d’améliorer la précision (en combinant des domaines abstraits) et l’efficacité (en associant des opérateurs d’élargissement et de rétrécissement) de l’analyse. Le produit réduit du domaine logique Pos et d’un domaine numérique choisi permet une analyse strictement plus précise que celles précédemment présentent dans la littérature. La construction modulaire de notre analyse permet de choisir un bon compromis entre efficacité et précision en faisant varier la granularité de l’abstraction et la complexité des opérateurs abstraits. Pour finir, nous introduisons Sails une nouvelle analyse de flue destinée à des langages de haut niveau sans annotation tel que Java. Sails combine une analyse de fuite possible d’information à différentes abstractions de la mémoire (du tas), ce qui lui permet d’inférer des résultats sur des programmes manipulant des structures complexes. De premiers résultats expérimentaux permettent de pointer l’efficacité de notre approche en appliquant Sails à l’analyse de SecuriBench-micro
Protecting the confidentiality of information stored in a computer system or transmitted over a public network is a relevant problem in computer security. The goal of this thesis is to provide both theoretical and experimental results towards the design of an information flow analysis for the automatic verification of absence of sensitive information leakage. Our approach is based on Abstract Interpretation, a theory of sound approximation of program semantics. We track the dependencies among program's variables using propositional formulae, namely the Pos domain. We study the main ways to improve the accuracy (by combination of abstract domains) and the efficiency (by combination of widening and narrowing operators) of the analysis. The reduced product of the logical domain Pos and suitable numerical domains yields to an analysis strictly more accurate with respect to the ones already in the literature. The modular construction of our analysis allows to deal with the trade-off between efficiency and accuracy by tuning the granularity of the abstraction and the complexity of the abstract operators. Finally, we introduce Sails, a new information flow analysis tool for mainstream languages like Java, that does not require any manual annotation. Sails combines the information leakage analysis with different heap abstractions, inferring information leakage over programs dealing with complex data structures too. We applied Sails to the analysis of the SecuriBench-micro suite and the preliminary experimental results outline the effectiveness of our approach
APA, Harvard, Vancouver, ISO, and other styles
16

Tararykine, Viatcheslav. "Modélisation des flux d'information dans un système de e-maintenance." Phd thesis, Université de Franche-Comté, 2005. http://tel.archives-ouvertes.fr/tel-00258814.

Full text
Abstract:
Le maintien des équipements de production était toujours un élément clé pour la productivité des usines aussi bien que pour la qualité des produits. Premièrement, le coût de la maintenance représente une partie importante du coût total de la production et, deuxièmement, un défaut d'équipement peut avoir un impact considérable sur la qualité du produit et sur la disponibilité de l'équipement. La maintenance reste aujourd'hui un défi industriel impliquant la remise en cause des structures figées et la promotion de méthodes nouvelles adaptées à la nature moderne des matériels. Les avancées technologiques dans le domaine de communication ont favorisé l'apparition de nouveaux types et formes de maintenance : télémaintenance distribuée .... Le problème majeur de ces solutions, basées sur l'utilisation des moyens d'échange d'information modernes, tel que Internet, reste leur nature non-déterministe. L'impossibilité de garantir la Qualité de Service, peut avoir des impacts considérables sur le fonctionnement des applications faisant partie du système de maintenance, et par conséquent, sur la disponibilité des équipements. Le modèle du système d'information de la fonction maintenance, proposé dans cette thèse, permettra de prédire le comportement du système de communication choisi, vis-à-vis du flux d'information généré par le système.
APA, Harvard, Vancouver, ISO, and other styles
17

Georget, Laurent. "Suivi de flux d'information correct pour les systèmes d'exploitation Linux." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S040/document.

Full text
Abstract:
Nous cherchons à améliorer l'état de l'art des implémentations de contrôle de flux d'information dans les systèmes Linux. Le contrôle de flux d'information vise à surveiller la façon dont l'information se dissémine dans le système une fois hors de son conteneur d'origine, contrairement au contrôle d'accès qui ne peut permettre d'appliquer des règles que sur la manière dont les conteneurs sont accédés. Plusieurs défis scientifiques et techniques se sont présentés. Premièrement, la base de code Linux est particulièrement grande, avec quinze millions de lignes de code réparties dans trente-mille fichiers. La première contribution de cette thèse a été un plugin pour le compilateur GCC permettant d'extraire et visualiser aisément les graphes de flot de contrôle des fonctions du noyau. Ensuite, le framework des Linux Security Modules qui est utilisé pour implémenter les moniteurs de flux d'information que nous avons étudiés (Laminar [1], KBlare [2] et Weir [3]) a été conçu en premier lieu pour le contrôle d'accès, et non de flux. La question se pose donc de savoir si le framework est implémenté de telle sorte à permettre la capture de tous les flux produits par les appels système. Nous avons créé et implémenté une analyse statique permettant de répondre à ce problème. Cette analyse statique est implémenté en tant que plugin GCC et nous a permis d'améliorer le framework LSM pour capturer tous les flux. Enfin, nous avons constaté que les moniteurs de flux actuels n'étaient pas résistants aux conditions de concurrence entre les flux et ne pouvaient pas traiter certains canaux ouverts tels que les projections de fichiers en mémoire et les segments de mémoire partagée entre processus. Nous avons implémenté Rfblare, un nouvel algorithme de suivi de flux, pour KBlare, dont nous avons prouvé la correction avec Coq. Nous avons ainsi montré que LSM pouvait être utilisé avec succès pour implémenter le contrôle de flux d'information, et que seules les méthodes formelles, permettant la mise en œuvre de méthodologie, d'analyses ou d'outils réutilisables, permettaient de s'attaquer à la complexité et aux rapides évolutions du noyau Linux
We look forward to improving the implementations of information flow control mechanisms in Linux Operating Systems. Information Flow Control aims at monitoring how information disseminates in a system once it is out of its original container, unlike access control which can merely apply rule on how the containers are accessed. We met several scientific and technical challenges. First of all, the Linux codebase is big, over fifteen millions lines of code spread over thirty three thousand files. The first contribution of this thesis is a plugin for the GCC compiler able to extract and let a user easily visualize the control flow graphs of the Linux kernel functions. Secondly, the Linux Security Modules framework which is used to implement the information flow trackers we have reviewed (Laminar, KBlare, and Weir) was designed in the first place to implement access control, rather than information flow control. One issue is thus left open: is the framework implemented in such a way that all flows generated by system calls can be captured? We have created and implemented static analysis to address this problem and proved its correction with the Coq proof assistant system. This analysis is implemented as a GCC plugin and have allowed us to improve the LSM framework in order to capture all flows. Finally, we have noted that current information flow trackers are vulnerable to race conditions between flows and are unable to cover some overt channels of information such as files mapping to memory and shared memory segments between processes. We have implemented Rfblare, a new algorithm of flow tracking, for KBlare. The correction of this algorithm has been proved with Coq. We have showed that LSM can be used successfully to implement information flow control, and that only formal methods, leading to reusable methodology, analysis, tools, etc., are a match for the complexity and the fast-paced evolution of the Linux kernel
APA, Harvard, Vancouver, ISO, and other styles
18

Andriatsimandefitra, Ratsisahanana Radoniaina. "Caractérisation et détection de malware Android basées sur les flux d'information." Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0025/document.

Full text
Abstract:
Les flux d’information sont des transferts d’information entre les objets d’un environnement donné. À l’échelle du système, pour toute information appartenant à une application donnée, les flux impliquant cette information décrivent comment l’application propage ses données dans le système et l’ensemble de ces flux peut ainsi être considéré comme un profil comportemental de l’application. À cause du nombre croissant d’applications malveillantes, il est devenu nécessaire d’explorer des nouvelles techniques permettant de faciliter voir automatiser l’analyse et la détection de malware. Dans cette thèse, nous proposons ainsi une méthode pour caractériser et détecter les malware Android en nous basant sur les flux d’information qu’ils causent dans le système. Cette méthode repose sur deux autres contributions de la thèse : AndroBlare, la version Android d’un moniteur de flux d’information du nom de Blare, et les graphes de flux système, une structure de donnée représentant de manière compacte et humainement compréhensible les flux d’information observés. Nous avons évalué avec succès notre approche en construisant le profil de 4 malware différents et avons montré que ces profils permettaient de détecter l’exécution d’applications infectées par les malware dont on a un profil
: Information flows are information exchanges between objects in a given environment. At system level, information flows involving data belonging to a given application describe how this application disseminates its data in the system and can be considered as behaviour based profile of the application. Because of the increasing number of Android malware, there is an urgent need to explore new approaches to analyse and detect Android malware. In this thesis, we thus propose an approach to characterize and detect Android malware based on information flows they cause in the system. This approach leverages two other contributions of the thesis which are AndroBlare, the Android version of an information flow monitor named Blare, and the system flow graph, a data structure to represent in a compact and human readable way the information flows observed by AndroBlare. We successfully evaluated our approach by building the profile of 4 different malware and showed that these profiles permitted to detect the execution of applications infected by malware for which we have computed a profile
APA, Harvard, Vancouver, ISO, and other styles
19

Valéra, Ludovick. "Amélioration du flux d'information et réduction du temps de passage réseau." Thèse, Université du Québec à Trois-Rivières, 2010. http://depot-e.uqtr.ca/1173/1/030168636.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Lattanzio, Thierry. "Caractérisation des entreprises organisées en "gestion par affaire"." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002739.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Nasr, Allah Mounir. "Contrôle de flux d'information par utilisation conjointe d'analyse statique et dynamique accélérée matériellement." Thesis, CentraleSupélec, 2020. http://www.theses.fr/2020CSUP0007.

Full text
Abstract:
Les systèmes embarqués étant de plus en plus présents dans nos vies, il est nécessaire de protéger les données personnelles qui y sont stockées. En effet, les concepteurs d’applications peuvent involontairement introduire des vulnérabilités pouvant être exploitées par un attaquant pour compromettre la confidentialité ou l’intégrité du système. Un des moyens de s’en prémunir est l’utilisation d’outils réactifs permettant de surveiller le comportement du système lors de son fonctionnement. Dans le cadre de cette thèse, nous proposons une approche générique de détection d'anomalies combinant des aspects matériels et logiciels et qui repose sur le suivi de flux d’information dynamique (DIFT). Le DIFT consiste à attacher des étiquettes représentant des niveaux de sécurité à des conteneurs d'information, par exemple des fichiers, et à spécifier une politique de flux d'information permettant de décrire les flux autorisés. Pour cela, nous avons tout d’abord développé un moniteur DIFT, flexible et non invasif pour le processeur, en utilisant les composants de traces ARM CoreSight. Pour prendre en compte les flux d’information qui se produisent dans les différentes couches, du système d’exploitation aux instructions processeur, nous avons élaboré des analyses statiques dans le compilateur. Ces analyses génèrent des annotations qui décrivent la dissémination des données dans le système lors de son exécution et qui sont utilisées par le moniteur DIFT. Nous avons également développé un module de sécurité pour le noyau Linux afin de prendre en compte les flux d’information à destination ou en provenance des fichiers. L’approche proposée permet ainsi de détecter un large spectre d'attaques de natures différentes
As embedded systems are more and more present in our lives, it is necessary to protect the personal data stored in such systems. Application developers can unintentionally introduce vulnerabilities that can be exploited by attackers to compromise the confidentiality or integrity of the system. One of the solutions to prevent this is to use reactive mechanisms to monitor the behavior of the system while it is running. In this thesis, we propose a generic anomaly detection approach combining hardware and software aspects, based on dynamic information flow tracking (DIFT). DIFT consists of attaching labels representing security levels to information containers, for example files, and specifying an information flow policy to describe the authorized flows. To implement such an approach, we first developed a DIFT monitor which is flexible and non-invasive for the processor, using ARM CoreSight trace components. To take into account the information flows that occur in the different layers, from the operating system to the processor instructions, we have developed different static analysis into the compiler. These analyses generate annotations, used by the DIFT monitor, that describe the dissemination of data in the system at run-time. We also developed a Linux security module to handle information flows involving files. The proposed approach can thus be used to detect different kinds of attacks
APA, Harvard, Vancouver, ISO, and other styles
22

Jeon, Doh-Shin. "Essais sur la théorie des incitations : collusion, flux d'information et réduction des effectifs." Toulouse 1, 2000. http://www.theses.fr/2000TOU10009.

Full text
Abstract:
Dans la thèse, l'auteur analyse trois phénomènes économiques distincts : collusion, flux d'information à l'intérieur des organisations et réduction des effectifs. Les deux premiers chapitres portent sur la collusion sous information asymétrique. Une question fondamentale concernant la collusion est de savoir comment l'asymétrie d'information entre les agents empêche la formation des coalitions. Les deux chapitres abordent cette question et montrent que l'asymétrie d'information peut effectivement créer des coûts de transactions entre les agents tels qu'ils ne peuvent pas réaliser le gain de collusion. Le principal peut profiter des couts afin de mettre en œuvre ses contrats de façon robuste à la collusion. Le troisième chapitre aborde la question de savoir pourquoi des organisations n'arrivent pas à s'adapter aux changements d'environnement. Pour répondre à la question, l'auteur étudie l'incitation de l'agent à acquérir et transmettre l'information sur les changements. Il identifie l'arbitrage entre la quantité d'information et l'extraction de rente. Le modèle prédit que plus une firme est efficace en terme de production, plus elle montrera d'inertie. La séparation de la tâche de l'acquisition d'information de la tâche de production peut être une réponse organisationnelle afin d'améliorer des flux d'information. Dans le dernier chapitre, l'auteur analyse le mécanisme efficace du point de vue social pour réduire des effectifs dans le secteur public lorsqu'il y a sélection adverse sur la productivité des travailleurs. Le mécanisme efficace consiste en un menu de paires composées de la probabilité de rester dans le secteur public et du transfert, induisant l'auto-sélection. Le coût total d'un agent est défini par la somme de son coût de production dans le secteur public et son coût d'opportunité dans le secteur privé. Il est optimal d'induire d'abord la sortie des travailleurs dont les coûts totaux sont les plus grands.
APA, Harvard, Vancouver, ISO, and other styles
23

Grall, Hervé. "Deux critères de sécurité pour l'exécution de code mobile." Phd thesis, Ecole des Ponts ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00007549.

Full text
Abstract:
Les programmes mobiles, comme les applettes, sont utiles mais potentiellement hostiles, et il faut donc pouvoir s'assurer que leur exécution n'est pas dangereuse pour le système hôte. Une solution est d'exécuter le programme mobile dans un environnement sécurisé, servant d'interface avec les ressources locales, dans le but de contrôler les flux d'informations entre le code mobile et les ressources, ainsi que les accès du code mobile aux ressources. Nous proposons deux critères de sécurité pour l'exécution de code mobile, obtenus chacun à partir d'une analyse de l'environnement local. Le premier porte sur les flux d'informations, garantit la confidentialité, est fondé sur le code de l'environnement, et est exact et indécidable ; le second porte sur les contrôles d'accès, garantit le confinement, s'obtient à partir du type de l'environnement, et est approché et décidable. Le premier chapitre, méthodologique, présente l'étude d'objets infinis représentés sous la forme d'arbres. Nous avons privilégié pour les définir, une approche équationnelle, et pour raisonner sur eux, une approche déductive, fondée sur l'interprétation co-inductive de systèmes d'inférence. Dans le second chapitre, on montre dans le cas simple du calcul, comment passer d'une sémantique opérationnelle à une sémantique dénotationnelle, en utilisant comme dénotation d'un programme son observation. Le troisième chapitre présente finalement en détail les deux critères de sécurité pour l'exécution de code mobile. Les techniques développées dans les chapitres précédents sont utilisées pour l'étude de la confidentialité, alors que des techniques élémentaires suffisent à l'étude du confinement.
APA, Harvard, Vancouver, ISO, and other styles
24

Mellal, Naçima. "Réalisation de l'interopérabilité sémantique des systèmes, basée sur les ontologies et les flux d'information." Chambéry, 2007. http://www.theses.fr/2007CHAMS045.

Full text
Abstract:
Les travaux de recherche présentés dans ce manuscrit s'inscrivent dans le domaine de l'ingénierie des connaissances. Considérant la description des connaissances au travers des ontologies, nous représentons celles-ci par des ontologies de buts. Le problème sous-jacent à ce choix est un problème d'alignement sémantique des buts en environnement distribué. Pour le résoudre, nous proposons une approche dont l'objectif consiste à établir des liens entre ces ontologies de buts en se basant sur les logiques distribuées. Dans la perspective d'automatiser cet alignement, nous nous appuyons sur le modèle IF (Information Flow) qui assure l'interopérabilité sémantique entre des systèmes dans un environnement distribué. En effet, ce modèle identifie une théorie de base pour la formalisation des connexions entre systèmes. Ainsi, les buts représentés en termes d'ontologies pourront être raccordés sémantiquement s'ils satisfont un certain nombre de règles. Une application extraite d'un projet réel illustrera plus concrètement la démarche choisie tout au long du manuscrit
This thesis subscribes with the description of knowledge through the use of ontologies. We choose to represent knowledge by goal-ontologies. In order to solve the problem of semantic alignment of these goals in distributed environment, we propose a process whose purpose is to establish links between goal-ontologies. In this sens, we propose to use the sound IF mathematical model (Information Flow Model), in order to assure the automatization of the proposed process. The IF model guarantees a semantic interoperability between distributed systems and identifies a theory for the formalization of system connections. Thus, the goals represented in terms of ontologies can be semantically connected if they satisfy some specific rules. These ideas are illustrated by a case study extracted from a practical problem
APA, Harvard, Vancouver, ISO, and other styles
25

Bellivier, Muriel. "Le Juste-à-temps : implications et conséquences sur les flux d'information, d'hommes et de marchandises." Marne-La-Vallée, 1994. http://www.theses.fr/1994MARN0099.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Ben, cheikh Ansem. "E-CARe : une méthode d'ingénierie des systèmes d'information ubiquitaires." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00768025.

Full text
Abstract:
L'apparition des Systèmes d'Information ubiquitaires ou pervasifs est issue de l'émergence de nouvelles technologies fournissant au système une vision de son environnement, de l'environnement de ses utilisateurs ainsi que de leurs profils. Grâce à ces données formant le contexte de l'application, il est possible de fournir des services personnalisés, pertinents et ciblés. Mais, le problème qui se pose à ce niveau concerne le degré d'adaptation, de prise de décision à la place de l'utilisateur et de l'identification des données contextuelles nécessaires et suffisantes pour ces services. Ceci est dû à un déséquilibre entre les avancées des technologies et de leurs applications (qui reçoivent un grand intérêt de la part de la recherche et de l'industrie) et les méthodes et démarches de développement et d'ingénierie spécifiques aux systèmes ubiquitaires. Notre objectif dans ce travail de thèse est de proposer une méthode d'ingénierie des SI ubiquitaires en considérant les différentes exigences reliées à la nature mobile et grande échelle de ces systèmes. Cette méthode est basée sur une démarche de développement qui fait usage d'un ensemble de métamodèles et de langages génériques favorisant la spécification complète de ces systèmes. Cette démarche sépare les spécifications fonctionnelles, techniques et ubiquitaires. Les spécifications ubiquitaires permettent de définir des modèles structurels et événementiels du contexte respectant les exigences des utilisateurs et les contraintes de sécurité et supportant les fonctionnalités d'adaptation et de sensibilité au contexte. Cette approche orientée évènements est consolidée par l'adoption d'une architecture de traitement des évènements. Notre démarche E-CARe est une intégration des spécifications ubiquitaires dans une démarche classique de conception des SI pour garantir la couverture des spécifications fonctionnelles et techniques. Les applications d'assistance représentent un cas d'étude idéal pour cette démarche qui s'intéresse au domaine des transports, fortement dépendant de l'environnement et des évènements ambiants.
APA, Harvard, Vancouver, ISO, and other styles
27

Ben, Cheikh Ansem. "E-CARe : une méthode d'ingénierie des systèmes d'information ubiquitaires." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM020/document.

Full text
Abstract:
L'apparition des Systèmes d'Information ubiquitaires ou pervasifs est issue de l'émergence de nouvelles technologies fournissant au système une vision de son environnement, de l'environnement de ses utilisateurs ainsi que de leurs profils. Grâce à ces données formant le contexte de l'application, il est possible de fournir des services personnalisés, pertinents et ciblés. Mais, le problème qui se pose à ce niveau concerne le degré d'adaptation, de prise de décision à la place de l'utilisateur et de l'identification des données contextuelles nécessaires et suffisantes pour ces services. Ceci est dû à un déséquilibre entre les avancées des technologies et de leurs applications (qui reçoivent un grand intérêt de la part de la recherche et de l'industrie) et les méthodes et démarches de développement et d'ingénierie spécifiques aux systèmes ubiquitaires. Notre objectif dans ce travail de thèse est de proposer une méthode d'ingénierie des SI ubiquitaires en considérant les différentes exigences reliées à la nature mobile et grande échelle de ces systèmes. Cette méthode est basée sur une démarche de développement qui fait usage d'un ensemble de métamodèles et de langages génériques favorisant la spécification complète de ces systèmes. Cette démarche sépare les spécifications fonctionnelles, techniques et ubiquitaires. Les spécifications ubiquitaires permettent de définir des modèles structurels et événementiels du contexte respectant les exigences des utilisateurs et les contraintes de sécurité et supportant les fonctionnalités d'adaptation et de sensibilité au contexte. Cette approche orientée évènements est consolidée par l'adoption d'une architecture de traitement des évènements. Notre démarche E-CARe est une intégration des spécifications ubiquitaires dans une démarche classique de conception des SI pour garantir la couverture des spécifications fonctionnelles et techniques. Les applications d'assistance représentent un cas d'étude idéal pour cette démarche qui s'intéresse au domaine des transports, fortement dépendant de l'environnement et des évènements ambiants
Ubiquitous Information Systems appeared as a consequence to emerging and evolving communication and mobile technologies providing the system with information on its environment, the environment of its users and their profiles. These data constitute the application context and are used to provide personalized, targeted and relevant services. However, ubiquitous services face some difficulties and challenges concerning specially needed contextual data, adaptation degree and computerized decision making. This is due to the gap between advanced ubiquitous services and their applications, and methods and processes for developing and engineering ubiquitous systems. Our goal in this thesis is to propose an engineering method for ubiquitous Information Systems considering different requirements resulting from the mobile and high scalable nature of these systems. The proposed method is based on a development process and a set of generic metamodels and languages facilitating a complete system specification and implementation. The proposed process separates functional, technical and ubiquitous specifications. Ubiquitous specifications enable the structural and event based context models definition while considering user requirements and security requirements. Adaptation and context awareness functionalities are supported by structural and dynamic context models. The proposed event oriented approach is enhanced by the adoption of an event processing architecture. Ubiquitous specifications are integrated into a classical information systems engineering process to constitute the E-CARe process including functional and technical specifications. Our propositions are used to design a user assistance application in the transport domain, highly dependent on the ambient environment and events
APA, Harvard, Vancouver, ISO, and other styles
28

Jaber, Mayyad. "Architecture de système d'information distribué pour la gestion de la chaîne logistique : une approche orientée services." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0013/these.pdf.

Full text
Abstract:
Afin d’améliorer leur compétitivité, les entreprises cherchent à réduire le coût de leurs processus métiers, et d’augmenter leur capacité de développement rapide pour des nouveaux services et produits. Pour cela, les entreprises se concentrent de plus en plus sur leur cœur de métier alors qu’ils sont de plus en plus impliqués dans des collaborations dans leur environnement. Cette tendance implique le renforcement des relations de collaboration avec des partenaires menant aux organisations virtuelles. Ces organisations interentreprises doivent payer une attention particulière sur les opérations logistiques, de l’approvisionnement à la distribution des produits finaux. L’amélioration de la performance globale d’une telle chaîne logistique repose sur l’optimisation du processus industriel mais aussi sur un processus efficace de coordination et de partage de l’information entre les partenaires. La mise en œuvre du processus de la chaîne logistique repose largement sur les technologies de l’information et de la communication. Ils conduisent à dépasser les frontières les entreprises et ensuite créer de nouvelles occasions de business. L’idée de cœur de notre approche repose sur une vision globale de collaboration flexible entre les partenaires de la chaîne logistique. Cela est réalisé par le biais d’un cadre global fondé sur des technologies et des normes neutres pour supporter la gestion de collaboration. Dans ce travail, nous présentons un cadre intégré pour la collaboration interentreprises. Le principe du cadre est basé sur la facilitation de l’accès aux processus des systèmes patrimoniaux et la définition des processus métiers communs par l’assemblage de services distribués sous forme d’un Workflow global. L’engagement potentiel de plusieurs systèmes patrimoniaux hétérogènes dans un processus commun collaboratif est associé à plus forte exigence d'interopérabilité pour l’organisation de processus métiers et pour l’échange d’informations
In order to improve their competitiveness, many enterprises seek to reduce the cost of doing business, and advance their capability for rapidly developing new services and products. For that, enterprises focus more and more on their core business while they are more and more involved in collaborative organizations. This trend involves reinforcing collaboration relationship with partners leading to virtual organizations. Such inter-enterprises organizations have to pay a particular attention on logistic operations, from procurement to final products distribution. Improving the global performance of such a supply chain relies on both industrial optimization and on an efficient process coordination and information sharing between partners. The enactment of supply chain business process relies heavily on information and communication technologies (ICT). They lead to overcome boarders between enterprises and then create new business opportunities. The core idea of our approach hinges on a global vision for flexible collaboration of supply chain partners and provides a global framework based on neutral technologies and standards to support collaboration management. In this work, we present an open integrated framework to support inter-enterprises collaboration based on facilitating the access to private processes of legacy systems and defining common business process issued from assembling distributed services through a global workflow. Potential involvement of several legacy heterogeneous systems in one collaborative business process is coupled with stronger interoperability requirements both for Business Process organization and information exchange
APA, Harvard, Vancouver, ISO, and other styles
29

Klaudel, Witold. "Contribution aux logiciels de simulation généralisée basée sur une approche séquentielle et l'emploi de flux d'information." Châtenay-Malabry, Ecole centrale de Paris, 1989. http://www.theses.fr/1989ECAP0085.

Full text
Abstract:
La présente érude définit une nouvelle conception de la modélisation des états stationnaires des installations chimiques. Cette conception augmente l'efficacité numérique de l'approche modulo-séquenteille. Elle s'appuie sur l'existence de plusieurs variantes admissibles de calcul des unités technologiques. L'étude introduit de nouvelles notions comme le graphe de flux d'information au cours des calculs et l'arbre de complexité des calculs. On présente des algorithmes de leur transformation qui optimisent les calculs.
APA, Harvard, Vancouver, ISO, and other styles
30

Bouzguenda, Lotfi. "Coordination multi-agents pour le Workflow Inter-Organisationnel lâche." Toulouse 1, 2006. http://www.theses.fr/2006TOU10009.

Full text
Abstract:
L'objectif du Workflow Inter-Organisationnel (WIO) est de coordonner des processus workflow répartis, autonomes et hétérogènes, issus et s'exécutant dans différentes organisations. Le WIO peut être étudié selon deux scénarios : un scénario lâche et un scénario serré. Dans cette thèse, nous considérons le scénario lâche qui correspond à une coopération occasionnelle entre organisations, sans aucune contrainte structurelle sur la coopération, et où les organisations participantes ne sont pas connues à priori mais recrutées dynamiquement. Cette thèse traite de la coordination dans le WIO lâche et plus particulièrement la recherche de partenaires et la négociation entre partenaires. Elle repose sur l'idée que la technologie agent est appropriée pour aborder les problèmes de la coordination, et permettre la conception et l'exécution du WIO lâche. Plus précisément, notre contribution est constituée de cinq éléments : (1) une architecture à base d'agents ; (2) un langage de communication combinant les standards KQML et OWL-S ; (3) un modèle organisationnel et (4) un procédé de spécification, validation et publication des services workflow , et (5) un simulateur Matchflow
The objective of Inter-Organizational Workflow (IOW) is to coordinate workflow processes distributed, autonomous and heterogeneous, resulting and being carried out in various organizations. The IOW can be studied according to two scenarios : a loose scenario and a tight scenario. In this thesis, we consider the loose scenario, which corresponds to an occasional co-operation between organizations, without any structural constraint on the co-operation, and where organizations participating are not known in advance but recruited dynamically. This thesis deals with coordination in the loose IOW and more particulary the finding of partners and the negociation between partners. It rests on the idea that agent technology is adapted to tackle the coordination problems, and to allow the design and the execution of loose IOW. More precisely, our contribution consists of five elements : (1) an agent based architecture, (2) a communication language combining (KQML and OWL-S standards, (3) an organizational model and (4) a specification process, validation and publication of the workflow services, and (5) a simulator MatchFlow
APA, Harvard, Vancouver, ISO, and other styles
31

Othman, Lotfi ben. "Développement d'un système de gestion de workflows distribué." Sherbrooke : Université de Sherbrooke, 2000.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
32

Creus, Tomas Jordi. "Roses : Un moteur de requêtes continues pour l’aggrégation de flux RSS à large échelle." Paris 6, 2012. http://www.theses.fr/2012PA066658.

Full text
Abstract:
Les flux RSS et Atom sont souvent des inconnus du grand public, néanmoins ils sont présents partout sur le web. Aujourd’hui, tous les sites d’actualités publient des milliers de fils RSS/Atom, normalement organisés par des thématiques (politique, économie, sports, société. . . ). Chaque blog possède son propre fil RSS, en outre, des sites de micro-blogage comme Twitter ou même les réseaux sociaux comme Facebook fournissent un fil RSS pour chaque utilisateur ou trending topic. Cette immense quantité de sources de données continues sont principalement utilisées par des agrégateurs de fils, soit en ligne (Google Reader), soit en local (Firefox, Thunderbird), mais également par des applications mash-up (comme Yahoo! pipes, Netvibes ou Google News). Nous pourrions voir l’ensemble des fils RSS et Atom comme un grand flux de données textuelles structurées, dont le potentiel est toutefois peu exploité encore. Dans cette thèse, nous présentons ROSES –Really Open Simple and Efficient Syndication–, un modèle de données et un langage de requêtes continues pour des flux RSS/Atom. ROSES permet aux utilisateurs de créer des nouveaux flux personnalisés à partir des flux existants sur le web à travers d’un simple, mais complet, langage de requêtes déclaratif et algèbre. ROSES c’est aussi un système capable de gérer et traiter des milliers de requêtes d’agrégation ROSES en parallèle, un des principaux objectifs du moteur de requêtes étant le passage à l’échelle par rapport au nombre de requêtes. En particulier, il implémente une nouvelle approche d’optimisation multirequête basée sur la factorisation des filtres similaires. Nous proposons deux algorithmes de factorisation: (I) STA, une adaptation d’un algorithme d’approximation pour calculer des arbres de Steiner minimaux [CCC+98a], et (ii) VCA, un algorithme glouton qui améliore le coût CPU d’optimisation du précédant. Nous avons validé notre approche d’optimisation avec un important nombre de tests sur des données réelles
RSS and Atom are generally less known than the HTML web format, but they are omnipresent in many modern web applications for publishing highly dynamic web contents. Nowadays, news sites publish thousands of RSS/Atom feeds, often organized into general topics like politics, economy, sports, culture, etc. Weblog and microblogging systems like Twitter use the RSS publication format, and even more general social media like Facebook produce an RSS feed for every user and trending topic. This vast number of continuous data-sources can be accessed by using general-purpose feed aggregator applications like Google Reader, desktop clients like Firefox or Thunderbird and by RSS mash-up applications like Yahoo! pipes, Netvibes or Google News. Today, RSS and Atom feeds represent a huge stream of structured text data which potential is still not fully exploited. In this thesis, we first present ROSES –Really Open Simple and Efficient Syndication–, a data model and continuous query language for RSS/Atom feeds. ROSES allows users to create new personalized feeds from existing real-world feeds through a simple, yet complete, declarative query language and algebra. The ROSES algebra has been implemented in a complete scalable prototype system capable of handling and processing ROSES feed aggregation queries. The query engine has been designed in order to scale in terms of the number of queries. In particular, it implements a new cost-based multi-query optimization approach based on query normalization and shared filter factorization. We propose two different factorization algorithms: (i) STA, an adaption of an existing approximate algorithm for finding minimal directed Steiner trees [CCC+98a], and (ii) VCA, a greedy approximation algorithm based on efficient heuristics outperforming the previous one with respect to optimization cost. Our optimization approach has been validated by extensive experimental evaluation on real world data collections
APA, Harvard, Vancouver, ISO, and other styles
33

Kassab, Randa. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10027/document.

Full text
Abstract:
De nombreuses applications génèrent et reçoivent des données sous la forme de flux continu, illimité, et très rapide. Cela pose naturellement des problèmes de stockage, de traitement et d'analyse de données qui commencent juste à être abordés dans le domaine des flux de données. Il s'agit, d'une part, de pouvoir traiter de tels flux à la volée sans devoir mémoriser la totalité des données et, d'autre part, de pouvoir traiter de manière simultanée et concurrente l'analyse des régularités inhérentes au flux de données et celle des nouveautés, exceptions, ou changements survenant dans ce même flux au cours du temps. L'apport de ce travail de thèse réside principalement dans le développement d'un modèle d'apprentissage - nommé ILoNDF - fondé sur le principe de la détection de nouveauté. L'apprentissage de ce modèle est, contrairement à sa version de départ, guidé non seulement par la nouveauté qu'apporte une donnée d'entrée mais également par la donnée elle-même. De ce fait, le modèle ILoNDF peut acquérir constamment de nouvelles connaissances relatives aux fréquences d'occurrence des données et de leurs variables, ce qui le rend moins sensible au bruit. De plus, doté d'un fonctionnement en ligne sans répétition d'apprentissage, ce modèle répond aux exigences les plus fortes liées au traitement des flux de données. Dans un premier temps, notre travail se focalise sur l'étude du comportement du modèle ILoNDF dans le cadre général de la classification à partir d'une seule classe en partant de l'exploitation des données fortement multidimensionnelles et bruitées. Ce type d'étude nous a permis de mettre en évidence les capacités d'apprentissage pures du modèle ILoNDF vis-à-vis de l'ensemble des méthodes proposées jusqu'à présent. Dans un deuxième temps, nous nous intéressons plus particulièrement à l'adaptation fine du modèle au cadre précis du filtrage d'informations. Notre objectif est de mettre en place une stratégie de filtrage orientée-utilisateur plutôt qu'orientée-système, et ceci notamment en suivant deux types de directions. La première direction concerne la modélisation utilisateur à l'aide du modèle ILoNDF. Cette modélisation fournit une nouvelle manière de regarder le profil utilisateur en termes de critères de spécificité, d'exhaustivité et de contradiction. Ceci permet, entre autres, d'optimiser le seuil de filtrage en tenant compte de l'importance que pourrait donner l'utilisateur à la précision et au rappel. La seconde direction, complémentaire de la première, concerne le raffinement des fonctionnalités du modèle ILoNDF en le dotant d'une capacité à s'adapter à la dérive du besoin de l'utilisateur au cours du temps. Enfin, nous nous attachons à la généralisation de notre travail antérieur au cas où les données arrivant en flux peuvent être réparties en classes multiples
Many applications produce and receive continuous, unlimited, and high-speed data streams. This raises obvious problems of storage, treatment and analysis of data, which are only just beginning to be treated in the domain of data streams. On the one hand, it is a question of treating data streams on the fly without having to memorize all the data. On the other hand, it is also a question of analyzing, in a simultaneous and concurrent manner, the regularities inherent in the data stream as well as the novelties, exceptions, or changes occurring in this stream over time. The main contribution of this thesis concerns the development of a new machine learning approach - called ILoNDF - which is based on novelty detection principle. The learning of this model is, contrary to that of its former self, driven not only by the novelty part in the input data but also by the data itself. Thereby, ILoNDF can continuously extract new knowledge relating to the relative frequencies of the data and their variables. This makes it more robust against noise. Being operated in an on-line mode without repeated training, ILoNDF can further address the primary challenges for managing data streams. Firstly, we focus on the study of ILoNDF's behavior for one-class classification when dealing with high-dimensional noisy data. This study enabled us to highlight the pure learning capacities of ILoNDF with respect to the key classification methods suggested until now. Next, we are particularly involved in the adaptation of ILoNDF to the specific context of information filtering. Our goal is to set up user-oriented filtering strategies rather than system-oriented in following two types of directions. The first direction concerns user modeling relying on the model ILoNDF. This provides a new way of looking at user's need in terms of specificity, exhaustivity and contradictory profile-contributing criteria. These criteria go on to estimate the relative importance the user might attach to precision and recall. The filtering threshold can then be adjusted taking into account this knowledge about user's need. The second direction, complementary to the first one, concerns the refinement of ILoNDF's functionality in order to confer it the capacity of tracking drifting user's need over time. Finally, we consider the generalization of our previous work to the case where streaming data can be divided into multiple classes
APA, Harvard, Vancouver, ISO, and other styles
34

Kassab, Randa Alexandre Frédéric. "Analyse des propriétés stationnaires et des propriétés émergentes dans les flux d'information changeant au cours du temps." S. l. : Nancy 1, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0027_KASSAB.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Lemaire, Christelle. "Le couplage entre flux physiques et flux d'information associés (F2PIA), apport de l'informatisation d'un système de traçabilité totale : application au cas d'une P.M.E. de produits laitiers." Aix-Marseille 2, 2005. http://www.theses.fr/2005AIX24017.

Full text
Abstract:
Apparue dans le domaine de la Qualité puis de la Logistique, la traçabilité totale qui consiste à associer de manière volontaire et intentionnelle un flux d'information au flux physique, comporte des enjeux opérationnels, tactiques et stratégiques au niveau local et au niveau global de la Supply Chain. S'inscrivant dans une approche systémique (J. L. Le Moigne), la traçabilité totale (Monde la Totalité) qui repose sur la concrétisation du couplage F2PIA, peut être considérée comme un Système d'Information (SI) évoluant autour de quatre pôles majeurs (Monde des objets) interdépendants et en interaction (Monde des relations) : la/les finalités, les acteurs, les activités et les technologies. Ainsi, au-delà des enjeux réellement exprimés (qualité, maîtrise des coûts. . . ), nous verrons que la traçabilité totale est un objectif à atteindre qui prend indéniablement, grâce au choix de son informatisation et à l'introduction des technologies d'identification automatique, une dimension stratégique pour une entreprise désireuse de maîtriser ses flux physiques et informationnels, mais également désireuse de tirer avantage de ce système pour diminuer ses coûts et se différencier face à la concurrence. En effet, les Technologies de l'Information (TI) associées au Système d'Information apparaissent comme un support nécessaire à la mise en oeuvre d'une traçabilité totale efficace dés lors qu'elles permettent d'intégrer la notion de temps réel et de concrétiser un couplage F2PIA, considéré à la fois comme résultat et processus, plus intense (fort) et donc plus fiable. Ce travail qui nous permet d'une part, d'apporter des éléments théoriques à la notion de traçabilité totale et à la mise en oeuvre de son informatisation mais également sur la notion de couplage F2PIA envisagée à la fois en tant que processus et résultat de ce processus et d'autre part, d'apporter des éléments managériaux sur la façon d'" actionner " et de transformer un système de traçabilité totale par son informatisation dans une perspective de pilotage de l'organisation, est le résultat d'une recherche-action menée dans une entreprise de conditionnement de produits laitiers (fromages) et réalisée dans le cadre d'une convention CIFRE (Convention Industrielle de Formation par la Recherche). En effet, les Etablissements Schoepfer ont une problématique clairement établie qui consiste à informatiser les processus de gestion et la traçabilité totale via un ERP (Enterprise Resource Planning) avec un objectif de pilotage logistique et stratégique pour l'amélioration de la performance par la valorisation des informations générées par le nouveau système d'information informatisé. Cette problématique d'entreprise rejoint notre problématique de recherche selon laquelle l'informatisation d'un système d'information de traçabilité totale permet la concrétisation d'un couplage F2PIA fort susceptible d'améliorer la capacité de pilotage logistique et stratégique de l'organisation sur la Supply chain.
APA, Harvard, Vancouver, ISO, and other styles
36

Foulon, Lucas. "Détection d'anomalies dans les flux de données par structure d'indexation et approximation : Application à l'analyse en continu des flux de messages du système d'information de la SNCF." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI082.

Full text
Abstract:
Dans cette thèse, nous proposons des méthodes de calcul approchées d'un score d'anomalie, pouvant être mises en oeuvre sur des flux de données pour détecter des portions anormales. La difficulté du problème est de deux ordres. D'une part, la haute dimensionnalité des objets manipulés pour décrire les séries temporelles extraites d'un flux brut, et d'autre part la nécessité de limiter le coût de détection afin de pouvoir la réaliser en continu au fil du flux. Concernant le premier aspect du problème, notre étude bibliographique a permis de sélectionner un score de détection d'anomalies proposé récemment, le score CFOF, qui est le seul pour lequel il existe des garanties formelles quant à son adéquation pour les données en haute dimensionnalité. Nos contributions ont alors porté sur la proposition de deux méthodes d'approximation du score CFOF pour permettre son usage en continu sur des flux. La première est une approche combinant élagage et approximation lors du parcours des voisinages dans l'espace de description des objets. Notre second apport est une approximation par agrégation de scores obtenus sur des sous-espaces, qui complète la première contribution et se combine avec elle. Nous avons montré sur une collection de jeux de données, utilisés comme cadre d'évaluation de référence dans le domaine, que nos méthodes permettaient des gains importants en temps de calcul, tout en fournissant des approximations qui préservent la qualité des détections. Enfin, nous présentons également l'application de ces approches au sein du système d'information de la SNCF dans lequel de nombreux flux sont collectés en temps réel, transformés et rediffusés. Dans ce contexte, nous avons étendu la supervision de bout-en-bout existante par la mise en oeuvre d'un outil d'aide à la détection d'anomalies sur le flux de messages entrant d'une des principales plateformes de traitement
In this thesis, we propose methods to approximate an anomaly score in order to detect abnormal parts in data streams. Two main problems are considered in this context. Firstly, the handling of the high dimensionality of the objects describing the time series extracted from the raw streams, and secondly, the low computation cost required to perform the analysis on-the-fly. To tackle the curse of dimensionality, we have selected the CFOF anomaly score, that has been proposed recently and proven to be robust to the increase of the dimensionality. Our main contribution is then the proposition of two methods to quickly approximate the CFOF score of new objects in a stream. The first one is based on safe pruning and approximation during the exploration of object neighbourhood. The second one is an approximation obtained by the aggregation of scores computed in several subspaces. Both contributions complete each other and can be combined. We show on a reference benchmark that our proposals result in important reduction of the execution times, while providing approximations that preserve the quality of anomaly detection. Then, we present our application of these approaches within the SNCF information system. In this context, we have extended the existing monitoring modules by a new tool to help to detect abnormal behaviours in the real stream of messages within the SNCF communication system
APA, Harvard, Vancouver, ISO, and other styles
37

Simo, Jean Claude. "Contrôle du flot d'information par des techniques basées sur le langage de programmation." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25983.

Full text
Abstract:
Un programme est dit non interférent si les valeurs de ses sorties publiques ne dépendent pas des valeurs de ses entrées secrètes. Des études ont montré que par l'analyse du flot d'information, on peut établir et contrôler cette propriété ou des propriétés qui lui sont étroitement liées. Dans ce travail, nous examinons en détail les modèles d'analyse de flot d'information existants, et esquissons une nouvelle approche dans un paradigme concurrent. La première partie de ce mémoire présente les différentes formulations de la non-interférence et un survol des grandes familles de mécanismes d'analyse de flot d'information. En second lieu, nous présentons en détail quelques mécanismes récents d'analyse sensibles aux flots, applicables à la programmation séquentielle. Mécanismes statiques pour certains, dynamiques ou hybrides pour d'autres. Dans la troisième partie, nous explorons deux modèles récents de sécurisation des flots d'information dans un programme concurrent. Les deux modèles ont en commun la particularité de proposer des traitements pour sécuriser l'interaction entre les programmes et l'ordonnanceur. Nous terminons par une esquisse de notre nouvelle approche, basée sur l'analyse des dépendances entre les variables d'un programme concurrent.
A program is said to be noninterfering if the values of its public (or low) outputs do not depend on the values of its secret (or high) inputs. Various researchers have demonstrated how this property (or closely related properties) can be achieved through information flow analysis. In this work, we present in detail some existing models of information flow analysis, and sketch a new approach of analysis for concurrent programming. The first part of this thesis presents the different formulations of non-interference, and an overview of the main types of information flow analysis. In the second part, we examine in detail some recent static and dynamic (hybrid) flow-sensitive analysis models, for a simple imperative language. In the third part, we explore two recent models of secure information flow in concurrent programs, which develop a novel treatment of the interaction between threads and the scheduler to prevent undesired interleaving. We end with a sketch of the foundations for another approach, based on the analysis of dependencies between variables of concurrent programs.
APA, Harvard, Vancouver, ISO, and other styles
38

Lefray, Arnaud. "Security for Virtualized Distributed Systems : from Modelization to Deployment." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL1032/document.

Full text
Abstract:
Cette thèse s'intéresse à la sécurité des environnements virtualisés distribués type “Clouds” ou informatique en nuage. Dans ces environnements, le client bénéficie de ressources ou services (de calcul, stockage, etc.) à la demande sans connaissance de l'infrastructure sous-jacente. Ces services sont proposés à bas coût en mutualisant les ressources proposées aux clients. Ainsi, ces derniers se retrouvent à partager une infrastructure commune. Cependant, cette concentration des activités en fait une cible privilégiée pour un attaquant, d'autant plus intéressante que les Clouds présentent de nouveaux vecteurs d'attaque entre les clients du Clouds de part le partage des ressources. Actuellement, les fournisseurs de solutions de Cloud proposent une sécurité par défaut ne correspondant pas nécessairement aux besoins de sécurité des clients. Cet aspect est donc bien souvent négligé et cette situation donne lieu à de nombreux exemples d'attaques (vol de données, usage malicieux, etc.). Dans cette thèse, nous proposons une approche où le client spécifie ses besoins de sécurité ainsi que son application virtualisée au sein d'un modèle. Nous proposons notamment une nouvelle logique dédiée à l'expression de propriétés sur la propagation de l'information dans un système.Puis, nous proposons un déploiement automatique de ce modèle sur une infrastructure de type Cloud basée sur la virtualisation grâce à nos nouveaux algorithmes prenant en compte les propriétés de sécurité. Ces dernières sont assurées via un placement prenant en compte les risques d'attaques entre ressources partagées et/ou via la configuration de mécanismes de sécurité existants au sein du système
This Thesis deals with security for virtualized distributed environments such as Clouds. In these environments, a client can access resources or services (compute, storage, etc.) on-demand without prior knowledge of the infrastructure underneath. These services are low-cost due to the mutualization of resources. As a result, the clients share a common infrastructure. However, the concentration of businesses and critical data makes Clouds more attractive for malicious users, especially when considering new attack vectors between tenants.Nowadays, Cloud providers offer default security or security by design which does not fit tenants' custom needs. This gap allows for multiple attacks (data thieft, malicious usage, etc.)In this Thesis, we propose a user-centric approach where a tenant models both its security needs as high-level properties and its virtualized application. These security objectives are based on a new logic dedicated to expressing system-based information flow properties. Then, we propose security-aware algorithm to automatically deploy the application and enforce the security properties. The enforcement can be realized by taking into account shared resources during placement decision and/or through the configuration of existing security mechanisms
APA, Harvard, Vancouver, ISO, and other styles
39

Jaisson, Pascal Marie. "Systèmes complexes gouvernés par des flux : schémas de volumes finis hybrides et optimisation numérique." Châtenay-Malabry, Ecole centrale de Paris, 2006. http://www.theses.fr/2006ECAP1020.

Full text
Abstract:
Cette thèse concerne la modélisation par des EDP et la résolution numérique de problèmes d'optimisation pour les flux d'informations et pour le trafic routier. Nous proposons un nouveau schéma hybride. En premier, nous nous intéressons à une modélisation fluide proposée par de Vuyst, d'un système multitâches devant traiter plusieurs types de requêtes. Nous exhibons un système d'Edo permettant de calculer les temps de service. Nous résolvons numériquement deux problèmes de contrôle optimal pour garantir une qualité de service. Ensuite, nous traitons un problème d'assimilation de données en trafic routier et nous donnons un algorithme capable de prévoir les conditions futures de circulation sur une section de route. Le flux routier est modélisé par le système hyperbolique de Aw-Rascle. Nous devons minimiser une fonctionnelle dont les variables d'optimisation sont les conditions initiales et/ou les conditions aux bords. Nous obtenons la solution du système de Aw-Rascle par la méthode de Roe et nous calculons le gradient de la fonctionnelle par une méthode adjointe. Enfin, nous présentons un nouveau schéma hybride à un paramètre qui permet de calculer numériquement les solutions des systèmes hyperboliques. Ce schéma possède la propriété TVD. Il est du second ordre en espace et en temps. Apres une première phase prédictrice, nous pouvons corriger le paramètre dans les cellules ou il y a production d'entropie numérique. Nous obtenons ainsi un schéma qui capture la solution physique
This thesis deals with pde modeling and numerical resolution of optimisation problems for multithread system and traffic flow. We propose a new hybrid scheme. First, we are interesting by fluid models of a multithread/multitask system proposed by de vusyt. We find odes which are used for the computation of the service times. We numerically solve two problem of optimal control of quality of service (qos) management. Then we deal with traffic data assimilation and algorithms able to predict the traffic flows on road section. The traffic flow is modelized by the aw-rascle hyperbolic system. We have to minimize a functional whose optimization variables are initial condition and/or upstream boundary conditions. We use the roe method to compute the solution of the traffic flow modelling system. Then we compute the gradient of the functional by an adjoint method. This gradient will be used to optimize the functional. Last, we propose a new hybryd scheme with one parameter which permit the scheme to have the tvd property and the space and time second order accuracy. After a first predictor step, we can correct the parameter in the cells where the entropy production is positive. Thus, the scheme can capture the physical solution
APA, Harvard, Vancouver, ISO, and other styles
40

BORZIC, BORIS. "Un modele de gestionnaire iteratif de flux informationnel sur internet." Paris, CNAM, 1998. http://www.theses.fr/1998CNAM0314.

Full text
Abstract:
La croissance phenomenale d'internet et la proliferation des contenus mis a la disposition des usagers en ligne ont considerablement accru le probleme de surabondance informationnelle. Dans le cadre d'un contrat cifre, un systeme d'acces performant a l'information personnalisee et partagee sur internet, appele gestionnaire iteratif de flux informationnel a ete elabore. La partie purement recherche d'information s'effectue par le biais d'une hybridation entre une couche linguistique d'extraction terninologique et une couche infometrique de detection automatique de themes. Depassant le simple transfert de ce savoir-faire technique, il a fallu reflechir a la maniere d'incorporer ce systeme hybride dans l'espace novateur, fluctuant et federateur qu'est internet, qui possede sa propre logique hypertextuelle d organisation de l'information. Ses caracteristiques propres, tant au niveau de l'identification des sources que de la nature des documents (nouveaux procedes d'ecriture electronique) ont ete prises en ensuite une categorisation des documents sur internet calculee a partir de la couverture hypertextuelle et textuelle de chacun d'eux a ete effectuee. Cette categorisation est a la base du processus iteratif du gestionnaire. Tandis que la premiere partie utilise les techniques les plus avancees du monde documentaire (indexation en texte integral par traitement linguistique accelere) conjuguees a celles du monde de la veille informative, techniques capables de detecter les signaux faibles (traitement infometrique), la partie inherente a internet s'applique aux robots, a des nouveaux formats de representation 3d et a une typologie de systemes de diffusion d'information disponible sur le reseau
The phenomenal growth of internet and proliferation of contents at one-line users 'disposal have amazingly increased the problem of informational overabundance. Within the context of a cifre contract, a performing access system to personalised information and shared on internet, called iterative management device of information flows, has been elaborated. The purely information research part is leaded through an hybridisation between a linguistic layer of terminological extraction and an infometric ? layer of themes automatic detection. Further this simple transfer of technical know-how, we had to think about the way of integrating this hybrid system in the innovative space, fluctuating and federative which is internet, that owns its proper hypertextual logic of information organisation. Its own characteristics, so much at sources identification level as the documents' nature (new process of electronical writing) have been taken into account. Afterwards, we conducted a categorisation of the documents on internet calculated from the hypertextual and textual cover of each one. This categorisation is the basis of the database iterative process. Whereas the first part uses most advanced technics of documentary world (indexation in complete text by accelerated linguistic treatment) combined with the ones of informative monitor world, technics capable of detecting weak signals (infometric treatment), the inherent part to internet applies itself to robots, to new 3d representation formats and to a systems typology of informational distribution available on the network
APA, Harvard, Vancouver, ISO, and other styles
41

Amar, Véronique. "Mise en oeuvre d'outils de travail collaboratif à la Caisse d'Epargne Rhône-Alpes Lyon étude préalable à la mise en place d'un workflow et mise en ligne de la documentation du système d'information /." [S.l.] : [s.n.], 2002. http://www.enssib.fr/bibliotheque/documents/dessid/rsamar.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Pavlos, Delias. "An agent-based workflow management system for marketing decision support." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Tanriverdieva, Khatira. "Etude et faisabilité du projet de valorisation de la littérature grise de la Région Rhône-Alpes application de la GED et du workflow /." [S.l.] : [s.n.], 2002. http://www.enssib.fr/bibliotheque/documents/dessride/rstanriverdieva.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Fragoso, Femenin dos Santos José. "Vers l’établissement du flux d’information sûr dans les applications Web côté client." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4148/document.

Full text
Abstract:
Nous nous intéressons à la mise en œuvre des politiques de confidentialité et d'intégrité des données dans le contexte des applications Web côté client. Étant donné que la plupart des applications Web est développée en JavaScript, on propose des mécanismes statiques, dynamiques et hybrides pour sécuriser le flux d'information en Core JavaScript - un fragment de JavaScript qui retient ses caractéristiques fondamentales. Nous étudions en particulier: une sémantique à dispositif de contrôle afin de garantir dynamiquement le respect des politiques de sécurité en Core JavaScript aussi bien qu'un compilateur qui instrumente un programme avec le dispositif de contrôle proposé, un système de types qui vérifie statiquement si un programme respecte une politique de sécurité donnée, un système de types hybride qui combine des techniques d'analyse statique à des techniques d'analyse dynamique afin d'accepter des programmes surs que sa version purement statique est obligée de rejeter. La plupart des programmes JavaScript s'exécute dans un navigateur Web dans le contexte d'une page Web. Ces programmes interagissent avec la page dans laquelle ils sont inclus parmi des APIs externes fournies par le navigateur. Souvent, l'exécution d'une API externe dépasse le périmètre de l'interprète du langage. Ainsi, une analyse réaliste des programmes JavaScript côté client doit considérer l'invocation potentielle des APIs externes. Pour cela, on présente une méthodologie générale qui permet d'étendre des dispositifs de contrôle de sécurité afin qu'ils prennent en compte l'invocation potentielle des APIs externes et on applique cette méthodologie à un fragment important de l'API DOM Core Level 1
In this thesis, we address the issue of enforcing confidentiality and integrity policies in the context of client-side Web applications. Since most Web applications are developed in the JavaScript programming language, we study static, dynamic, and hybrid enforcement mechanisms for securing information flow in Core JavaScript --- a fragment of JavaScript that retains its defining features. Specifically, we propose: a monitored semantics for dynamically enforcing secure information flow in Core JavaScript as well as a source-to-source transformation that inlines the proposed monitor, a type system that statically checks whether or not a program abides by a given information flow policy, and a hybrid type system that combines static and dynamic analyses in order to accept more secure programs than its fully static counterpart. Most JavaScript programs are designed to be executed in a browser in the context of a Web page. These programs often interact with the Web page in which they are included via a large number of external APIs provided by the browser. The execution of these APIs usually takes place outside the perimeter of the language. Hence, any realistic analysis of client-side JavaScript must take into account possible interactions with external APIs. To this end, we present a general methodology for extending security monitors to take into account the possible invocation of arbitrary APIs and we apply this methodology to a representative fragment of the DOM Core Level 1 API that captures DOM-specific information flows
APA, Harvard, Vancouver, ISO, and other styles
45

Huron, Samuel. "Constructive Visualization : A token-based paradigm allowing to assemble dynamic visual representation for non-experts." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112253/document.

Full text
Abstract:
Durant les 20 dernières années, la recherche en visualisation d’informations (InfoVis) a permis l’émergence de nouvelles techniques et méthodes qui permettent d’assister l’analyse de données intensives pour la science, l’industrie, et les gouvernements. Cependant, la plupart de ces travaux de recherches furent orientés sur des données statiques pour des utilisateurs experts.Dernièrement, des évolutions technologique et sociétales ont eu pour effet de rendre les données de plus en plus dynamiques et accessibles pour une population plus diverse. Par exemple des flux de données tels que les emails, les mises à jours de statuts sur les réseaux sociaux, les flux RSS, les systèmes de gestion de versions, et bien d’autres. Ces nouveaux types de données sont utilisés par une population qui n’est pas forcément entraînée ou éduquée à utiliser des visualisations de données. La plupart de ces personnes sont des utilisateurs occasionnels, d’autres utilisent très souvent ces données dans leurs travaux. Dans les deux cas, il est probable que ces personnes n’aient pas reçu de formation formelle en visualisation de données.Ces changements technologiques et sociétaux ont généré une multitude de nouveaux défis, car la plupart des techniques de visualisations sont conçues pour des experts et des bases de données statiques. Peu d’études ont été conduites pour explorer ces défis. Dans ce rapport de thèse, j’adresse la question suivante : « Peut-­on permettre à des utilisateurs non­-experts de créer leur propre visualisation et de contribuer à l’analyse de flux de données ? »La première étape pour répondre à cette question est d’évaluer si des personnes non formées à la visualisation d’informations ou aux « data sciences » peuvent effectuer des tâches d’analyse de données dynamiques utiles, en utilisant un système de visualisation adapté pour supporter cette tâche. Dans la première partie de cette dissertation, je présente différents scénarios et systèmes, qui permettent à des utilisateurs non­-experts (de 20 à 300 ou 2000 à 700 000 personnes) d’utiliser la visualisation d’informations pour analyser des données dynamiques.Un autre problème important est le manque de principes génériques de design pour l’encodage visuel de visualisations d’informations dynamiques. Dans cette dissertation, je conçois, définis, et explore un espace de design pour représenter des donnés dynamiques pour des utilisateurs non­-experts. Cette espace de design est structuré par des jetons graphiques représentant des éléments de données qui permettent de construire dans le temps différentes visualisations, tant classiques que nouvelles.Dans cette thèse, je propose un nouveau paradigme de conception (design) pour faciliter la réalisation de visualisation d’informations par les utilisateurs non­-experts. Ce paradigme est inspiré par des théories établies en psychologie du développement, tout autant que par des pratiques passées et présentes de création de visualisation à partir d’objets tangibles. Je décris tout d’abord les composants et processus de bases qui structurent ce paradigme. Ensuite, j’utiliserai cette description pour étudier *si et comment* des utilisateur non­-experts sont capables de créer, discuter, et mettre à jour leurs propres visualisations. Cette étude nous permettra de réviser notre modèle précédent et de fournir une première exploration des phénomènes relatifs à la création d’encodages visuels par des utilisateurs non­-experts sans logiciel. En résumé, cette thèse contribue à la compréhension des visualisations dynamiques pour des utilisateurs non­-experts
During the past two decades, information visualisation (InfoVis) research has created new techniques and methods to support data- intensive analyses in science, industry and government. These have enabled a wide range of analyses tasks to be executed, with tasks varying in terms of the type and volume of data involved. However, the majority of this research has focused on static datasets, and the analysis and visualisation tasks tend to be carried out by trained expert users. In more recent years, social changes and technological advances have meant that data have become more and more dynamic, and are consumed by a wider audience. Examples of such dynamic data streams include e-mails, status updates, RSS 1 feeds, versioning systems, social networks and others. These new types of data are used by populations that are not specifically trained in information visualization. Some of these people might consist of casual users, while others might consist of people deeply involved with the data, but in both cases, they would not have received formal training in information visualization. For simplicity, throughout this dissertation, I refer to the people (casual users, novices, data experts) who have not been trained in information visualisation as non-experts.These social and technological changes have given rise to multiple challenges because most existing visualisation models and techniques are intended for experts, and assume static datasets. Few studies have been conducted that explore these challenges. In this dissertation, with my collaborators, I address the question: Can we empower non-experts in their use of visualisation by enabling them to contribute to data stream analysis as well as to create their own visualizations?The first step to answering this question is to determine whether people who are not trained in information visualisation and the data sciences can conduct useful dynamic analysis tasks using a visualisation system that is adapted to support their tasks. In the first part of this dissertation I focus on several scenarios and systems where different sized crowds of InfoVis non-experts users (20 to 300 and 2 000 to 700 000 people) use dynamic information visualisation to analyse dynamic data.Another important issue is the lack of generic design principles for the visual encoding of dynamic visualization. In this dissertation I design, define and explore a design space to represent dynamic data for non-experts. This design space is structured by visual tokens representing data items that provide the constructive material for the assembly over time of different visualizations, from classic represen- tations to new ones. To date, research on visual encoding has been focused on static datasets for specific tasks, leaving generic dynamic approaches unexplored and unexploited.In this thesis, I propose construction as a design paradigm for non-experts to author simple and dynamic visualizations. This paradigm is inspired by well-established developmental psychological theory as well as past and existing practices of visualisation authoring with tangible elements. I describe the simple conceptual components and processes underlying this paradigm, making it easier for the human computer interaction community to study and support this process for a wide range of visualizations. Finally, I use this paradigm and tangible tokens to study if and how non-experts are able to create, discuss and update their own visualizations. This study allows us to refine our previous model and provide a first exploration into how non-experts perform a visual mapping without software. In summary, this thesis contributes to the understanding of dynamic visualisation for non-expert users
APA, Harvard, Vancouver, ISO, and other styles
46

Poignant, Johann. "Identification non-supervisée de personnes dans les flux télévisés." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00958774.

Full text
Abstract:
Ce travail de thèse a pour objectif de proposer plusieurs méthodes d'identi- fication non-supervisées des personnes présentes dans les flux télévisés à l'aide des noms écrits à l'écran. Comme l'utilisation de modèles biométriques pour reconnaître les personnes présentes dans de larges collections de vidéos est une solution peu viable sans connaissance a priori des personnes à identifier, plusieurs méthodes de l'état de l'art proposent d'employer d'autres sources d'informations pour obtenir le nom des personnes présentes. Ces méthodes utilisent principalement les noms prononcés comme source de noms. Cependant, on ne peut avoir qu'une faible confiance dans cette source en raison des erreurs de transcription ou de détection des noms et aussi à cause de la difficulté de savoir à qui fait référence un nom prononcé. Les noms écrits à l'écran dans les émissions de télévision ont été peu utilisés en raison de la difficulté à extraire ces noms dans des vidéos de mauvaise qualité. Toutefois, ces dernières années ont vu l'amélioration de la qualité des vidéos et de l'incrustation des textes à l'écran. Nous avons donc ré-évalué, dans cette thèse, l'utilisation de cette source de noms. Nous avons d'abord développé LOOV (pour Lig Overlaid OCR in Vidéo), un outil d'extraction des textes sur-imprimés à l'image dans les vidéos. Nous obtenons avec cet outil un taux d'erreur en caractères très faible. Ce qui nous permet d'avoir une confiance importante dans cette source de noms. Nous avons ensuite comparé les noms écrits et les noms prononcés dans leurs capacités à fournir le nom des personnes présentes dans les émissions de télévisions. Il en est ressorti que deux fois plus de personnes sont nommables par les noms écrits que par les noms prononcés extraits automatiquement. Un autre point important à noter est que l'association entre un nom et une personne est intrinsèquement plus simple pour les noms écrits que pour les noms prononcés. Cette très bonne source de noms nous a donc permis de développer plusieurs méthodes de nommage non-supervisé des personnes présentes dans les émissions de télévision. Nous avons commencé par des méthodes de nommage tardives où les noms sont propagés sur des clusters de locuteurs. Ces méthodes remettent plus ou moins en cause les choix fait lors du processus de regroupement des tours de parole en clusters de locuteurs. Nous avons ensuite proposé deux méthodes (le nommage intégré et le nommage précoce) qui intègrent de plus en plus l'information issue des noms écrits pendant le processus de regroupement. Pour identifier les personnes visibles, nous avons adapté la méthode de nommage précoce pour des clusters de visages. Enfin, nous avons aussi montré que cette méthode fonctionne aussi pour nommer des clusters multi-modaux voix-visage. Avec cette dernière méthode, qui nomme au cours d'un unique processus les tours de paroles et les visages, nous obtenons des résultats comparables aux meilleurs systèmes ayant concouru durant la première campagne d'évaluation REPERE.
APA, Harvard, Vancouver, ISO, and other styles
47

Derdour, Makhlouf. "Modélisation et implémentation d’un système d’information de gestion de flux multimedia pour des architectures logicielles intégrant des appareils sans-fil mobiles." Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3045/document.

Full text
Abstract:
Le développement d'applications pour l'informatique pervasive présente un certain nombre de défis pour l'ingénierie des logiciels. En particulier, l'adaptation des applications sensibles au contexte : adaptation à l’environnement (localisation, temps, condition, …), à la connectivité (débit, protocole, …), aux limitations de l'appareil (écran, format de média, …) et même à l’utilisateur (handicap physique, capacité, …). Dans ce contexte où le multimédia, la mobilité des utilisateurs et l'ubiquité des applications se généralisent, les fournisseurs de logiciel souhaitent offrir des applications adaptables (sensibles au contexte). Beaucoup d’efforts ont été consacrés à l’assemblage et au réassemblage de composants, ainsi qu’à l’adaptation fonctionnelle par remplacement ou reconfiguration des composants afin de satisfaire le nouveau besoin ou le nouveau contexte. La problématique que nous abordons dans cette thèse est celle de l’hétérogénéité comportementale ou sémantique des composants. L’objectif est de fournir des mécanismes permettant l’adaptation des flux de données multimédia dans des applications basées composants. Pour cela, l’architecture doit être capable de vérifier la possibilité d’assemblage des composants à partir de leurs manifestes (un manifeste doit contenir les informations techniques d’un composant). L’assemblage peut ne pas se faire pour deux raisons : incompatibilité fonctionnelle et/ou comportementale. Notre travail porte sur la deuxième raison, dans le cas où les interfaces d’un composant ne seront pas compatibles avec celles des composants voisins. Par exemple un composant fournit des images de type PNG, alors que l’autre n’accepte que des images JPEG. La mise en évidence de l’interopérabilité des composants dans un assemblage est une nécessité dans de telles approches. En effet, les architectures logicielles valident les aspects fonctionnels, ce qui n’est pas suffisant pour garantir un assemblage réaliste et remédier aux problèmes d’hétérogénéité des flux de données échangés. Nous proposons, pour mettre en évidence l’interopérabilité et permettre de trouver des solutions aux problèmes d’hétérogénéité, une approche basée modèle appelée MMSA (Meta-model for MultiMedia Software Architecture). Elle permet la description d’architectures logicielles exprimant un système logiciel comme une collection de composants qui manipulent différents types et formats de données et qui interagissent par l’intermédiaire de connecteurs d’adaptation. Nous définissons aussi un profil UML 2.0 pour exprimer et modéliser les nouveaux concepts et contraintes du méta modèle MMSA. La transition vers un profil UML est assurée par les mécanismes d'extension fournis par UML 2.0 afin d'améliorer la vérification et la cohérence des architectures décrites en MMSA. Nous proposons pour assurer la cohérence des applications vis à vis des changements du contexte, une plate-forme d’adaptation dynamique. Cette plate-forme surveille et contrôle l’exécution des applications multimédia afin de détecter les changements éventuels du contexte. En cas d’un changement, la plate-forme cherche les solutions possibles et prend la décision adéquate pour l’adaptation de l’application au nouveau contexte. Ensuite, la plate-forme cherche et choisit les services d’adaptation nécessaires afin de les intégrer dans des connecteurs d’adaptation et les réassembler avec les composants métiers de l’application. Afin d’examiner la projection de MMSA en UML 2.0, les contraintes OCL ont été évaluées dynamiquement sur un modèle de système de surveillance. Nous proposons aux architectes logiciels, un outil qui donne la possibilité de vérifier le modèle d’architecture à chaque modification afin d’assurer sa cohérence structurelle et sémantique. Les différents tests et validations effectués sur les modèles d’architecture garantissent parfaitement notre projection
The development of applications for pervasive computing presents a number of challenges for software engineering. In particular, the adaptation of context-aware applications: adapting to the environment (location, time, condition, etc.), connectivity (bit-rate, protocol, etc.), the limitations of the device (screen size media ...) and even the user (physical handicaps, ability, etc.). The programmer is always faced with a complex combination of factors that occur throughout the application. In this context where the multimedia, the mobility of user and the ubiquitous application generalizes, providers want to offer adaptable software applications (context sensitive). Much effort has been devoted to assembly and reassembly of components, thus to the functional adaptation by replacement or reconfiguration of the components in order to satisfy the new need or the new context. The problem we tackle in this thesis is that of semantic and behavioral heterogeneity of components. The objective is to provide mechanisms for adapting multimedia data flows in applications based components, i.e. ensuring the assembly of heterogeneous components. For this, the architecture must be able to check the possibility of assembling components from the manifest (a manifest must contain the technical information of component). The assembly may not accept for two reasons: functional and/or behavioral incompatibility. Our work focuses on the second reason, in case the interfaces of component will not be compatible with the interfaces of adjacent components. For example, it provides images of PNG type, while the other accepts only JPEG images. The taken into account of components interoperability in an assembly is a necessity in such approaches. Indeed, software architectures validate the functional aspects, which is not sufficient to ensure a realistic assembly and to remedy the problems of heterogeneous of data flow exchanged. We propose to take into account the interoperability and to find solutions to problems of heterogeneity, an approach called model MMSA (Meta-Model for Multimedia Software Architecture). It allows the description of software architectures expressing a software system as a collection of components that handle various data types and formats and which interact through connectors to adaptation. We also define a UML 2.0 profile to express and model the new concepts and constraints of MMSA meta-model. The transition to a UML profile is provided by the extension mechanisms provided by UML 2.0 in order to improve the verification and consistency of architectures described in MMSA. We propose for ensure the coherence of applications aim at screw of changing context, a platform of dynamic adaptations. The dynamic adaptation is the process by which a software application is modified in order to take into account a change, be it level of the environment or the application itself, the platform monitors and controls the execution of multimedia applications to detect any change of context. In the event of a change, the platform seeks the possible solutions and takes the appropriate decision to adapt the application to the new context. Then, the platform seeks and selected the services of adaptation necessary in order to integrate them in connectors of adaptation and reassembled with the business components of application. In order to examine the projection of MMSA in UML 2.0, the OCL constraints were dynamically evaluated on a model of monitoring system. We have proposed to the software architects, a tool which gives the possibility of checking the model of architecture to each modification in order to ensure its structural and semantic coherence. The various tests and validations carried out on the models of architecture guarantee our projection perfectly. This visual model supports the creation and the management of models MMSA for software applications
APA, Harvard, Vancouver, ISO, and other styles
48

Hachicha, Rim. "Modélisation et analyse de la flexibilité dans les systèmes workflow." Paris, CNAM, 2007. http://www.theses.fr/2007CNAM0565.

Full text
Abstract:
Cette thèse est consacrée à la modélisation formelle et la gestion des systèmes workflows. Nous nous intéressons à apporter une solution à l'un des principaux problèmes des systèmes workflows est celui de la flexibilité : les modèles aussi bien que les systèmes actuels ne sont pas suffisamment flexibles et adaptables. Dans ce but, nous proposons un modèle de tâches et d'acteurs précisant les relations formelles entre les tâches workflow et les acteurs et permettant une assignation flexible des acteurs ux activités workflow. L'allocation des tâches workflows est fondée sur le concept de distance acteur/tâche et sur le processus de formation de coalitions d'agents. Le modèle permet de vérifier l'interchangeabilité des acteurs et la cohérence des tâches workflows suite à l'évolution de l'environnement. Nous proposons une architecture orientée agent distribuée intégrant le modèle formel et permettant de réaliser les fonctionnalités requises par les systèmes workflows. Cette architecture est capable de s'adapter de façon réactive aux changements tout en assurant la réutilisabilité du système Workflow. Nous avons implémenté le modèle sur la plate forme JADE en utilisant le système expert JESS et nous l'avons validé sur une réelle application
This thesis is devoted to formal modeling and management of workflow system. We are interested to bring a solution to the one of the principal problems of workflow systems is that of flexibility : the models as well as the current systems are not sufficiently flexible and adaptable. For these requirements, we propose a task model and actor model specifying the formal relations between workflow tasks and actors and allowing a flexible assignment of actors to workflow activities. The workflow task allocation is based on the concept of actor/task distance and agent coalition formation process. The model allows checking the interchangeability of the actors and the coherence of the workflows tasks following the evolution of the environment. We propose a distributed agent architecture integrating the formal model and permitting to carry out the functionalities required by the workflow system. This architecture is adaptable, reactive and ensures the reusability of the workflow system. We implemented the proposed model on JADE agent platform using expert system JESS and we validated our model on a real application
APA, Harvard, Vancouver, ISO, and other styles
49

Yannis, Georgios. "Système d'information et stratégie dans les transports. Le cas du transport express." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00519682.

Full text
Abstract:
Cette thèse met en valeur l'importance des technologies de l'information et des télécommunications pour les entreprises de transport, en examinant le système d'information dans le contexte de la démarche stratégique de l'entreprise. Le fonctionnement parallèle des réseaux des flux des envois et des informations dans la chaîne de production du transport express était le cas idéal pour identifier l'avantage concurrentiel que le système d'information crée pour l'entreprise. Le système d'information de l'entreprise de transport express peut être considéré comme un système d'information stratégique (SIS) parce qu'il soutient très bien les cinq coups stratégiques. Son rôle dans les stratégies de différenciation et de réduction des coûts est déterminant et son absence constitue un facteur de limitation non seulement pour les stratégies d'innovation, de croissance et d'alliances mais aussi pour l'activité de l'entreprise. Si le système d'information est essentiel pour définir la démarche stratégique de l'entreprise de transport, il est en même temps défini par la stratégie de l'entreprise. Une boucle dynamique entre système d'information et démarche stratégique est ainsi produite: chaque élément de la boucle évolue sous l'influence de l'autre.
APA, Harvard, Vancouver, ISO, and other styles
50

Burget, Cyril. "Gestion des flux de l'information dans un espace semi-public : l'usage des nouvelles technologies dans le métro parisien." Paris 10, 2006. http://www.theses.fr/2006PA100093.

Full text
Abstract:
Notre travail comprend trois études : une étude qualitative et une observation ethnographique permettent de confronter les usages de la téléphonie mobile dans le métro parisien et de voir comment se construisent les seuils de sociabilité à travers l'objet du mobile. Elles s’efforcent d’analyser les pratiques de l’"habiter" et les stratégies de connexion des utilisateurs. Une troisième étude orientée cette fois-ci sur l’organisation et la gestion de l’exploitation de la station "Saint-Marcel" rend compte des modifications de logique et d’accueil attendues sur l’ensemble du réseau souterrain ferré dans les prochaines années, ceci à travers la présentation exhaustive des composants de la dite station. Elle permet de préciser comment les relations entre les espaces publics, privés et virtuels s'imbriquent et d'interroger la mise en scène des composants techniques et humains autour des impératifs: sécuriser, informer, surveiller, et punir
Our work is divided in three studies : a qualitative study and an ethnographic observation allow us to confront the usage of mobile communication in the Parisian metropolitan and to see how sociability thresholds are built through mobile telephone. The studies analyse the "residential" uses and the users connexion strategies. A third study, focusing on the management and running of the Saint-Marcel station, accounts for the modifications of strategy and users reception on the entire underground network expected to happen in the next few years. This is done, through an exhaustive presentation of the components of that particular station. The presentation allows us to define how the relationships between public, private and virtual spaces come together and to question the setup of technical and human components around four imperatives: to secure, to inform, to supervise and to punish
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography