To see the other types of publications on this topic, follow the link: Approche dirigée par les modèles.

Dissertations / Theses on the topic 'Approche dirigée par les modèles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Approche dirigée par les modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Azaiez, Selma. "Approche dirigée par les modèles pour le développement de systèmes multi-agents." Phd thesis, Chambéry, 2007. http://tel.archives-ouvertes.fr/tel-00519195.

Full text
Abstract:
Les systèmes multi-agents s'attaquent aux nombreuses problématiques posées actuellement dans le monde informatique telles que la distribution, l'évolution, l'adaptabilité et l'interopérabilité des systèmes. Les solutions proposées par ces systèmes sont prometteuses et permettent d'obtenir des systèmes flexibles et évolutifs. Cependant, leur mise en oeuvre reste difficile. Ceci est dû au manque de techniques d'ingénierie adaptées à ce genre de système et qui permettent un développement fiable et cohérent. Bien qu'il existe plusieurs propositions intéressantes au niveau des méthodologies, des langages de spécification et des plates-formes d'implémentation orientés agent, celles-ci manquent de cohésion et font ressortir plusieurs différences aussi bien au niveau de la sémantique des concepts utilisés mais aussi au niveau des démarches de développement. Notre but durant cette thèse a été de proposer une approche flexible et cohérente supportant le développement des systèmes multiagents. Cette approche que nous baptisons ArchMDE se base sur une combinaison de l'approche centrée architecture et de l'approche dirigée par les modèles. L'approche centrée architecture nous permet de raisonner sur les éléments qui structurent le système multi-agents ainsi que leurs interactions. Elle permet d'identifier les patrons architecturaux nécessaires au développement des systèmes multi-agents en prenant en compte les différentes vues du système (vue organisationnelle, vue environnementale, etc.). L'approche orientée modèles nous permet d'exprimer de façon explicite la manière de combiner ces patrons architecturaux afin d'avoir une représentation globale du système multi-agents. D'autre part, IDM permet de couvrir les différentes phases du cycle de développement en adoptant une démarche basée sur la transformation de modèles. Cette démarche permet de garantir la cohérence du système durant les différentes phases du cycle de vie. Par ailleurs, celle-ci offre l'avantage de préserver le savoir-faire des développeurs en exprimant explicitement les opérations d'intégration (entre les patrons architecturaux) et de mapping (entre les modèles de conception et les modèles d'implémentation). Pour implanter ArchMDE, nous utilisons le cadre de développement ArchWare qui est basé sur le pi-calcul typé, polyadique et d'ordre supérieur, ce qui permet de supporter les aspects communicatifs et évolutifs des systèmes multi-agents. Le choix d'un cadre formel vise à réduire l'ambiguïté liée aux concepts multi-agents mais aussi à garantir une conception sûre. En effet, l'utilisation d'un langage formel donne la possibilité d'exprimer explicitement différentes propriétés structurelles et comportementales. Le cadre de développement ArchWare offre divers langages accompagnés de différents outils qui nous seront utiles pour mettre en oeuvre notre approche.
APA, Harvard, Vancouver, ISO, and other styles
2

Béliche, Vale Samyr. "Approche dirigée par les modèles pour le développement des applications sensibles au contexte." Angers, 2009. http://www.theses.fr/2009ANGE0062.

Full text
Abstract:
Les applications logicielles deviennent de plus en plus complexes et courantes dans la vie des entreprises. L'automatisation des processus est désormais fondamentale pour faire face à la concurrence et promouvoir un gain de productivité. Récemment, les entreprises se sont intéressées à un nouveau genre d'applications : les applications sensibles au contexte. Ces applications sont mises en avant par le développement des technologies des dispositifs mobiles capables de se connecter à des réseaux, tel qu'Internet, de n'importe où et à tout moment. Dans cette thèse, nous proposons une méthodologie de développement des applications sensibles au contexte selon l'approche dirigée par les modèles. Nous proposons la séparation de la logique métier de celle du contexte dans des modèles indépendants et individuels. Cette séparation permet le traitement individuel de chaque domaine et la réutilisation de chaque modèle. . . .<br>Software applications are becoming more and more complex and common in enterprises. Nowadays, the automation of the development process is essential for facing up to the competition and improving productivity. Recently, a new application trend has become the aim of enterprises : context-aware applications. These applications are propelled by the development of mobile device technologies which can now connect to various networks, everywhere, anywhere and at anytime. In this thesis, we propose a methodologyfor the development of context-aware applications using the model driven approach. The separation of concerns between context and business logic is achieved. We propose to represent the business logic and the context in two individual and independent models with suitable formalisms. This separation allows the individual computation of each complexity and the reuse of each model
APA, Harvard, Vancouver, ISO, and other styles
3

Atigui, Faten. "Approche dirigée par les modèles pour l’implantation et la réduction d’entrepôts de données." Thesis, Toulouse 1, 2013. http://www.theses.fr/2013TOU10044/document.

Full text
Abstract:
Nos travaux se situent dans le cadre des systèmes d'aide à la décision reposant sur un Entrepôt de Données multidimensionnelles (ED). Un ED est une collection de données thématiques, intégrées, non volatiles et historisées pour des fins décisionnelles. Les données pertinentes pour la prise de décision sont collectées à partir des sources au moyen des processus d'Extraction-Transformation-Chargement (ETL pour Extraction-Transformation-Loading). L'étude des systèmes et des méthodes existants montre deux insuffisances. La première concerne l'élaboration d'ED qui, typiquement, se fait en deux phases. Tout d'abord, il faut créer les structures multidimensionnelles ; ensuite, il faut extraire et transformer les données des sources pour alimenter l'ED. La plupart des méthodes existantes fournit des solutions partielles qui traitent soit de la modélisation du schéma de l'ED, soit des processus ETL. Toutefois, peu de travaux ont considéré ces deux problématiques dans un cadre unifié ou ont apporté des solutions pour automatiser l'ensemble de ces tâches.La deuxième concerne le volume de données. Dès sa création, l'entrepôt comporte un volume important principalement dû à l'historisation régulière des données. En examinant les analyses dans le temps, on constate que les décideurs portent généralement un intérêt moindre pour les données anciennes. Afin de pallier ces insuffisances, l'objectif de cette thèse est de formaliser le processus d'élaboration d'ED historisés (il a une dimension temporelle) depuis sa conception jusqu'à son implantation physique. Nous utilisons l'Ingénierie Dirigée par les Modèles (IDM) qui permet de formaliser et d'automatiser ce processus~; ceci en réduisant considérablement les coûts de développement et en améliorant la qualité du logiciel. Les contributions de cette thèse se résument comme suit : 1. Formaliser et automatiser le processus de développement d'un ED en proposant une approche dirigée par les modèles qui inclut : - un ensemble de métamodèles (conceptuel, logique et physique) unifiés décrivant les données et les opérations de transformation. - une extension du langage OCL (Object Constraint Langage) pour décrire de manière conceptuelle les opérations de transformation d'attributs sources en attributs cibles de l'ED. - un ensemble de règles de transformation d'un modèle conceptuel en modèles logique et physique.- un ensemble de règles permettant la génération du code de création et de chargement de l'entrepôt. 2. Formaliser et automatiser le processus de réduction de données historisées en proposant une approche dirigée par les modèles qui fournit : - un ensemble de métamodèles (conceptuel, logique et physique) décrivant les données réduites, - un ensemble d'opérations de réduction,- un ensemble de règles de transformation permettant d'implanter ces opérations au niveau physique. Afin de valider nos propositions, nous avons développé un prototype comportant trois parties. Le premier module réalise les transformations de modèles vers des modèles de plus bas niveau. Le deuxième module transforme le modèle physique en code. Enfin, le dernier module permet de réduire l'ED<br>Our work handles decision support systems based on multidimensional Data Warehouse (DW). A Data Warehouse (DW) is a huge amount of data, often historical, used for complex and sophisticated analysis. It supports the business process within an organization. The relevant data for the decision-making process are collected from data sources by means of software processes commonly known as ETL (Extraction-Transformation-Loading) processes. The study of existing systems and methods shows two major limits. Actually, when building a DW, the designer deals with two major issues. The first issue treats the DW's design, whereas the second addresses the ETL processes design. Current frameworks provide partial solutions that focus either on the multidimensional structure or on the ETL processes, yet both could benefit from each other. However, few studies have considered these issues in a unified framework and have provided solutions to automate all of these tasks. Since its creation, the DW has a large amount of data, mainly due to the historical data. Looking into the decision maker's analysis over time, we can see that they are usually less interested in old data.To overcome these shortcomings, this thesis aims to formalize the development of a time-varying (with a temporal dimension) DW from its design to its physical implementation. We use the Model Driven Engineering (MDE) that automates the process and thus significantly reduce development costs and improve the software quality. The contributions of this thesis are summarized as follows: 1. To formalize and to automate the development of a time-varying DW within a model-driven approach that provides: - A set of unified (conceptual, logical and physical) metamodels that describe data and transformation operations. - An OCL (Object Constraint Language) extension that aims to conceptually formalize the transformation operations. - A set of transformation rules that maps the conceptual model to logical and physical models. - A set of transformation rules that generates the code. 2. To formalize and to automate historical data reduction within a model-driven approach that provides : - A set of (conceptual, logical and physical) metamodels that describe the reduced data. - A set of reduction operations. - A set of transformation rules that implement these operations at the physical level.In order to validate our proposals, we have developed a prototype composed of three parts. The first part performs the transformation of models to lower level models. The second part transforms the physical model into code. The last part allows the DW reduction
APA, Harvard, Vancouver, ISO, and other styles
4

Baïna, Salah. "Interopérabilité dirigée par les modèles : une Approche Orientée Produit pour l'interopérabilité des systèmes d'entreprise." Nancy 1, 2006. https://tel.archives-ouvertes.fr/tel-00123271.

Full text
Abstract:
L’intégration des systèmes consiste à assembler les différentes parties d’un système tout en assurant la compatibilité de l’assemblage ainsi que le bon fonctionnement du système complet. Dans ce cadre, l’interopérabilité des systèmes est un moyen pour obtenir l’intégration fondée sur un couplage faible des parties du système, basé sur la capacité des parties à des parties à communiquer entre elles pour accéder et faire appel à leur fonctionnalités. Plus récemment, une nouvelle approche d’ingénierie logicielle a été élaborée «l’ingénierie dirigée par les modèles». Dans cette nouvelle approche les modèles occupent une place de premier plan parmi les artefacts d’ingénierie des systèmes. La thèse s’inscrit dans l’intersection de ces deux domaines de recherche. Dans ce contexte, les travaux de la thèse présentent une approche pour l’interopérabilité entre systèmes d’entreprise dite « l’interopérabilité orientée produit »; basée sur les échanges d’informations relatives au produit bien et service entre les différents modèles et représentation de ce produit dans chacun des systèmes. Nous proposons ainsi un meta-modèle dont les instances jouent le rôle de modèles pivot pour la communication entre différentes applications d'entreprise et ceci dans le but d’assurer l'interopérabilité des parties de systèmes concernant le produit. Pour la formalisation de ce meta-modèle, notre approche s'est inspirée sur l’ontologie BWW (Bunge - Wand - Weber) permettant la construction de représentations génériques et complètes des objets du monde réel tels que les perçoivent les systèmes d’information<br>Systems integration aims at assembling several systems in order to build a unique system working and reacting as a whole. In this context, systems interoperability can be seen as a means to obtain integration based on a light coupling of sub-parts of the system. Recently, a new approach of systems development based on modelling techniques has been founded. This approach is called “Model driven engineering”, in this approach models play a key role in systems engineering and development. This Phd thesis presents a product oriented approach for interoperability to ensure data and schema consistency between all product representations in a production. The aim of product oriented interoperability is, on one hand, to define mechanisms to maintain consistency between this representation and the reality of the product, and on the other hand to make sure that all applications share the image (representation) of the same product. Our result is a model driven approach based on a generic meta-model that defines all concepts used for representing the product. To enable data exchange between different applications, a formalisation of model driven mappings for semantic interoperability has also been proposed. To achieve our goal we focus on the formalisation of a unified product representation inside enterprise information systems. This unified representation has been inspired from the well know BWW ontology (Bunge - Wand - Weber) that is widely used for real world objects representation for information systems design. In this thesis, a reference meta-model has been defined, to enable structured data exchange between different applications
APA, Harvard, Vancouver, ISO, and other styles
5

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'Ingénierie Dirigée par les Modèles." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00580737.

Full text
Abstract:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes tels que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basée sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO.
APA, Harvard, Vancouver, ISO, and other styles
6

Chettaoui, Hanène. "Interopérabilité entre modèles hétérogènes en conception coopérative par des approches d'ingénierie dirigée par les modèles." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0151.

Full text
Abstract:
Le travail collaboratif fait participer des équipes qui doivent partager et échanger l'information sur le produit tout en travaillant avec différents outils métiers. Les processus complexes de conception du produit exigent l'utilisation d'un ensemble d'outils métiers hétérogènes telle que les outils de CAO et de FAO. Notre travail de thèse propose une approche fédérée basé sur l'Ingénierie Dirigé par les Modèles pour l'interopérabilité des outils métiers. Dans ce travail nous utilisons le modèle PPO (Produit Processus Organisation) comme modèle de fédération pour l'échange et le partage d'informations. Ce travail décrit comment nous structurons la synchronisation entre outils métiers hétérogènes. Un cas d'étude est appliqué à l'outil de FAO EspritTM lui permettant d'interopérer avec l'outil de CAO SolidWorksTM à travers l'environnement collaboratif PPO<br>Collaborative work involves many teams member which must share and exchange information about the product while working with various business tools. The complex process of product design requires the use of heterogeneous tools such as CAD and CAM too1. Our work of thesis proposes an approach based on the Model Driven Architecture (MDA) for the interoperability of business tools. Ln this work we use the PPO model (Product Process Organization) as a federation mode! for information exchange. This work describes how we structure the synchronization between heterogeneous business tools. A case study is applied to EspritTM CAM tool enabling EspritTM to interoperate with the SolidWorksTM CAD tool throughout the PPO collaborative environment
APA, Harvard, Vancouver, ISO, and other styles
7

Yildiz, Onur. "Atelier de conception pour l'évolution des systèmes PLM : une approche d'ingénierie dirigée par les modèles." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI058/document.

Full text
Abstract:
Le déploiement, la maintenance et l'évolution des systèmes d'informations techniques qui accompagnent les processus de création de produits (PLM) constituent des tâches complexes et parfois onéreuses pour des structures de type PME ou micro entreprise innovantes. Si l'appui sur un progiciel développé et maintenu par un éditeur permet aujourd'hui des solutions pérennes, la question de l'évolution conjointe des processus métiers de l'entreprise et du progiciel suite aux évolutions techniques de l'ingénierie numérique pose aux chercheurs la problématique des méthodologies à mettre en œuvre pour faciliter ce double axe d'évolution. Dans le cadre de ses démarches d'innovation, l'éditeur progiciel souhaite rendre accessibles à ses clients PME les capacités fonctionnelles de sa solution PLM en développant un atelier de modélisation pour la création de modèles métier au sein des systèmes PLM et la gestion de leur cohérence au cours du temps. Ce projet, réalisé dans le cadre d'une thèse CIFRE avec la société AUDROS, a pour but de fournir les concepts et les outils qui simplifient la synchronisation des différents outils métiers au sein du système d'information dans le but de gérer l'entreprise de façon la plus étendue et la plus homogène possible<br>The specification, the deployment, the maintenance and the evolution of technical information systems which support the processes of products developement (PLM) constitute complex tasks for organisations like SME or innovative companies. If today the support on a software package developed and maintained by an editor allows long-lasting solutions, researchers face the issue of the convergent evolutions of the business processes and the software package. As the technical evolutions embedded in digital engineering, this thesis proposes methodologies to be implemented to facilitate this double axis of evolution. Within his innovation framework, the software editor wishes to provide his customers with PLM systems evolution tools.This project, granted as an industrial thesis with AUDROS company, aims at supplying the concepts and the tools which simplify the synchronization of the various business tools within the information system. The company can thus be dynamically supported in a context of extended enterprise
APA, Harvard, Vancouver, ISO, and other styles
8

Garcès-Pernett, Kelly Johany. "Une approche pour l'adaptation et l'évaluation de stratégies génériques d'alignement de modèles." Nantes, 2010. http://archive.bu.univ-nantes.fr/pollux/show.action?id=4ca7b93a-5d04-4b14-a05c-9ab85fb51e7f.

Full text
Abstract:
L'alignement de modèles est devenu un sujet d'interêt pour la communaute de l'Ingenierie Dirigee par les Modeles. Le but est d'identifier des correspondances entre les élements de deux metamodeles ou de deux modeles. Un scenario d'application important est la derivation des transformations a partir des correspondances entre metamodeles. De plus, les correspondances entre modeles offrent un grand potentiel pour adresser d'autres besoins. L'etablissement manuel de ces correspondances sur des (meta)modeles de grande taille demande une grande quantite de travail et est source d'erreurs. La communaute travaille donc a automatiser le processus en proposant plusieurs strategies d'alignement formulees comme la combinaison d'un ensemble d'heuristiques. Un premier probleme est alors que ces heuristiques sont limitees a certains formalismes de representation au lieu d'être réutilisables. Un second probleme reside dans la difficulte a evaluer systematiquement la qualite des strategies. Cette these propose une approche pour resoudre les problemes ci-dessus. Cette approche developpe des strategies dont les heuristiques sont faiblement couplees aux formalismes. Elle extrait un jeu de tests d'usage a partir d'un repertoire de modeles et elle utilise finalement un megamodele pour automatiser l'evaluation. Pour valider cette approche, nous developpons le langage dedie AML construit sur la plateforme AmmA. Nous contribuons a la definition d'une bibliotheque d'heuristiques et de strategies AML. Pour montrer que notre approche n'est pas limitee au domaine de l'IDM nous testons celle-ci dans le domaine des ontologies. Finalement, nous proposons trois cas d'etude attestant l'applicabilite des strategies AML dans les domaines de la co-evolution des modeles, de l'evaluation des metamodeles pivots et de la synchronisation des modeles<br>Model matching is gaining importance in Model-Driven Engineering (MDE). The goal of model matching is to identify correspondences between the elements of two metamodels or two models. One of the main application scenarios is the derivation of model transformations from metamodel correspondences. Model correspondences, in turn, offer a potential to address other MDE needs. Manually finding of correspondences is labor intensive and error-prone when (meta)models are large. To automate the process, research community proposes matching strategies combining multiple heuristics. A problem is that the heuristics are limited to certain representation formalisms instead of being reusable. Another problem is the difficulty to systematically evaluate the quality of matching strategies. This work contributes an approach to deal with the mentioned issues. To promote reusability, the approach consists of strategies whose heuristics are loosely coupled to a given formalism. To systematize model matching evaluation, the approach automatically extracts a large set of modeling test cases from model repositories, and uses megamodels to guide strategy execution. We have validated the approach by developing the AML domain specific language on top of the AmmA platform. By using AML, we have implemented a library of strategies and heuristics. To demonstrate that our approach goes beyond the modeling context, we have tested our strategies on ontology test cases as well. At last, we have contributed three use
APA, Harvard, Vancouver, ISO, and other styles
9

Chazalet, Antonin. "Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00343548.

Full text
Abstract:
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres : <br>- au développement d'applications à services métiers [ML07], <br>- à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a] <br>- à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici : <br>- d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application), <br>- de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications, <br>- d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services.
APA, Harvard, Vancouver, ISO, and other styles
10

Chazalet, Antonin. "Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10211.

Full text
Abstract:
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres : - au développement d'applications à services métiers [ML07], - à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a] - à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici : - d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application), - de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications, - d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services<br>Our goal is to provide Internet services on top of "n-tier" architectures. In our context, these architectures are made of five tiers: devices, gateways, mediation, Internet servers and presentation. Apprehending the gateways tier needs the introduction of services applications to answer the requests of the mediation tier and to collect and transform data from the "devices" tier, these data are then used by the "mediation" tier, next they are manipulated by the "Internet server" tier which is in charge of the displaying to the end users. The introduction of such services applications intended to run in services execution environments raises issues related to: - the development of business-specific services applications [ML07], - their deployment in services execution environments (this is the focus of this thesis) [CL07a] - the dynamic management of interactions between services applications and the devices (un)- plugged to the gateways (these devices are exposed as services in the environments) [EBL+08]. Software lifecycle is made of several phases. The main ones are analysis, conception, implementation, test and deployment. The latter is a complex one; it is made of activities and subactivities like installation, activation, deactivation, static and dynamic updates, evolution, dynamism and deinstallation. The introduction and use of the service approach still raises the deployment phase complexity, in particular when the goal is the deployment of services applications on services execution environments. Stakes, here, are: - to execute deployment activities targeting services applications while respecting each application's architecture (i. E. Each application's model), - to control the deployment state of the services (implementations) realizing these applications, - to execute deployment activities on services belonging to these applications while acting only the targeted service and avoiding to impact the whole applications. We called this last stake: "closely deployment" or "deployment in the small". It imposes that development units (i. E. Constraints service-oriented components) used for developing applications and deployment units (i. E. Services implementations) used for realizing applications have the same (fine) grain. This thesis proposes a software prototype, called DMSA (for Deployment Manager for Services Applications), automating the deployment of services applications on services execution environments while following a model-driven approach. Using a model-driven approach is an answer for the constant rise in abstraction of the deployment phase and of its entry point. The full decoupling between model level and "reality" level has been chosen in order to reuse services implementations between services models. This document clarifies our approach, the services applications meta-model, the services applications deployment definition, the DMSA's software architecture and our propositions. These latter target deployment of several applications models on several services execution environments, "transactional" deployment, our embedded context apprehension and execution of deployment activities ordered lists on services execution environments
APA, Harvard, Vancouver, ISO, and other styles
11

Brottier, Erwan. "Acquisition et analyse des exigences pour le développement logiciel : une approche dirigée par les modèles." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00512174.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la définition d'une plate-forme industrielle favorisant une meilleure intégration des techniques de vérification et de validation des exigences au sein des processus de développement. Cette plate-forme, appelée R2A (pour Requirements To Analysis) est entièrement construite à l'aide de technologies issues de l'ingénierie dirigée par les modèles. Le cœur de la plate-forme est un processus de composition de modèles à deux niveaux de modélisation. Au niveau instance, il produit une spécification globale des exigences à partir d'une collection de spécifications d'exigences partielles, hétérogènes et potentiellement incohérentes. Au niveau de la conception de la plate-forme (niveau meta), il produit le formalisme interne de la plate-forme (types d'information pouvant être capturée et fonctionnalités supportées) à partir de composants de conception embarquant des sémantiques opérationnelles, de composition et de déploiement. Ce processus favorise l'adaptabilité de la plate-forme à des contextes industriels variés. L'obtention d'une spécification globale des exigences (i) autorise l'application des techniques modernes de vérification et de validation pour la détection d'incohérences et (ii) favorise une approche de développement dirigée par les modèles (MDD) dès les premières étapes du développement logiciel (synchronisation exigences et artefacts de développement aval). Dans sa version actuelle, la plate-forme est spécialisée pour le contexte industriel de France Télécom. Elle supporte quatre langages de description des exigences : les diagrammes d'activité et de classes UML, un langage naturel contraint (le RDL, pour Requirements Description Language) et son formalisme interne (le RM, pour Requirements Metamodel). Les fonctionnalités principales sont (i) la génération d'objectifs de test système, (ii) la production d'une première spécification d'analyse et (iii) la vérification de la cohérence des exigences.
APA, Harvard, Vancouver, ISO, and other styles
12

Guduvan, Alexandru-Robert-Ciprian. "Une approche dirigée par les modèles pour le développement de tests pour systèmes avioniques embarqués." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0012/document.

Full text
Abstract:
Le développement de tests pour les systèmes d’avioniques met en jeu une multiplicité de langages de test propriétaires, sans aucun standard émergent.Les fournisseurs de solutions de test doivent tenir compte des habitudes des différents clients, tandis que les échanges de tests entre les avionneurs et leurs équipementiers / systémiers sont entravés. Nous proposons une approche dirigée par les modèles pour s’attaquer à ces problèmes: des modèles de test sont développés et maintenus à la place du code, avec des transformations modèle-vers-code vers des langages de test cibles. Cette thèse présente trois contributions dans ce sens. La première consiste en l’analyse de quatre langages de test propriétaires actuellement déployés. Elle nous a permis d’identifier les concepts spécifiques au domaine, les meilleures pratiques,ainsi que les pièges à éviter. La deuxième contribution est la définition d’un méta-modèle en EMF Ecore, qui intègre tous les concepts identifiés et leurs relations. Le méta-modèle est la base pour construire des éditeurs de modèles de test et des motifs de génération de code. Notre troisième contribution est un d´démonstrateur de la façon dont ces technologies sont utilisées pour l’élaboration des tests. Il comprend des éditeurs personnalisables graphiques et textuels pour des modèles de test, ainsi que des transformations basées-motifs vers un langage du test exécutable sur une plateforme de test réelle<br>The development of tests for avionics systems involves a multiplicity of in-house test languages, with no standard emerging. Test solution providers have to accommodate the habits of different clients, while the exchange of tests between aircraft manufacturers and their equipment/system providers is hindered. We propose a model-driven approach to tackle these problems: test models would be developed and maintained in place of code, with model-to-code transformations towards target test languages. This thesis presents three contributions in this direction. The first one consists in the analysis of four proprietary test languages currently deployed. It allowed us to identify the domain-specific concepts, best practices, as well as pitfalls to avoid. The second contribution is the definition of a meta-model in EMF Ecore that integrates all identified concepts and their relations. The meta-model is the basis for building test model editors and code generation templates. Our third contribution is a demonstrator of how these technologies are used for test development. It includes customizable graphical and textual editors for test models, together with template-based transformations towards a test language executable on top of a real test platform
APA, Harvard, Vancouver, ISO, and other styles
13

Jevardat, de Fombelle Gregory. "Gestion incrémentale des propriétés de cohérence structurelle dans l'ingénierie dirigée par les modèles." Paris 6, 2007. http://www.theses.fr/2007PA066606.

Full text
Abstract:
L'ingénierie dirigée par les modèles se caractérise par l'utilisation de multiples modèles comme supports productifs à l'ingénierie des systèmes complexes. Dans ce cadre, les modèles doivent respecter un certain nombre de contraintes appelées règles de cohérence. Il est alors nécessaire de fournir des langages, des techniques et des outils pour exprimer ces règles, détecter d'éventuelles incohérences et fournir des mécanismes pour les traiter. Si de nombreuses approches ont été proposées, elles ne répondent que partiellement à ce problème lorsque les modèles sont soumis à des modifications: quelles règles doit on re-vérifier, sur quelles parties des modèles ? Dans cette thèse, nous proposons une approche pour la gestion incrémentale des propriétés de cohérence structurelle dans l'ingénierie dirigée par les modèles. Nous donnons une définition mathématique de la structure des modèles, des métamodèles et de leurs constructions. Ensuite, nous fournissons un langage d'expression de contraintes structurelles sur ces modèles. Enfin, nous montrons comment détecter de façon incrémenale des incohérences, non pas sur les modèles mais à partir d'une séquence de modifications des modèles, permettant de ne vérifier qu'une partie des règles de cohérence sur une partie des modèles à chaque modification
APA, Harvard, Vancouver, ISO, and other styles
14

Oudart, David. "Application de l'ingénierie dirigée par les modèles à la conception de Smart Grids : approche par cosimulation avec FMI." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS002.

Full text
Abstract:
Les Smart Grids sont des systèmes cyberphysiques qui interfacent les réseaux électriques avec les technologies de l'information et de la communication afin de les surveiller, d'automatiser la prise de décision et d'équilibrer la production avec la consommation. Nous souhaitons utiliser la simulation pour évaluer et comparer facilement plusieurs solutions avant un déploiement dans un environnement réel. L'objectif de cette thèse est ainsi de proposer des outils et méthodes pour modéliser et simuler un Smart Grid dans un contexte industriel. Nous avons identifié deux problématiques principales : Comment combiner les modèles hétérogènes d'un Smart Grid pour le simuler ? Comment assurer la cohérence entre les modèles produits par différents intervenants lors de la conception d'un Smart Grid ? Pour répondre à ces problématiques, nous proposons une approche de cosimulation, en utilisant la norme Functional Mockup Interface (FMI). Nos deux premières contributions sont la proposition d'une méthode pour permettre l'échange de signaux discrets entre plusieurs FMUs, et d'une extension du logiciel de simulation de télécommunications OMNeT++ implémentant cette méthode, appelée fmi4omnetpp. Une troisième contribution est la réalisation de l'environnement outillé Smart Grid Simulation Framework, qui automatise un certain nombre de tâches répétitives afin d'assurer la cohérence entre différents modèles de simulation. Enfin, une quatrième contribution est la formalisation de la démarche itérative de conception dans laquelle s'inscrit la cosimulation d'un Smart Grid, et la façon d'y intégrer notre environnement Smart Grid Simulation Framework. Pour cela, nous explicitons les différentes étapes de la démarche et le rôle des acteurs de la conception, puis nous présentons son application sur un cas d'étude réel pour lequel nous utilisons Smart Grid Simulation Framework<br>Smart Grids are cyber-physical systems that interface power grids with information and communication technologies to monitor them, automate decision making and balance production with consumption. We want to use simulation to easily evaluate and compare several solutions before deployment in a real environment. The objective of this thesis is thus to propose tools and methods to model and simulate a Smart Grid in an industrial context. We have identified two main issues: How to combine heterogeneous models of a Smart Grid to simulate it ? How to ensure consistency between the models produced by different stakeholders during the design of a Smart Grid ? To address these issues, we propose a cosimulation approach, using the Functional Mockup Interface (FMI) standard. Our first two contributions are the proposal of a method to allow the exchange of discrete signals between several FMUs, and an extension of the OMNeT++ telecommunications simulation software implementing this method, called fmi4omnetpp. A third contribution is the development of the Smart Grid Simulation Framework tooled environment, which automates a number of repetitive tasks in order to ensure consistency between different simulation models. Finally, a fourth contribution is the formalization of an iterative design approach for the cosimulation of a Smart Grid, and how to integrate our Smart Grid Simulation Framework into it. To do so, we explain the different steps of the approach and the role of the actors involved in the design process, then we present its application to a real case study for which we use our Smart Grid Simulation Framework
APA, Harvard, Vancouver, ISO, and other styles
15

Luquet, Sébastien. "Contribution à la simulation de la stimulation magnétique transcrânienne : vers une approche dirigée par les modèles." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00724476.

Full text
Abstract:
La Stimulation Magnétique Transcrânienne (SMT) est une technique de stimulation neuronale offrant de nombreuses applications médicales. Cependant son utilisation reste empirique. L'objectif de cette thèse était de mettre en place un logiciel permettant de mieux comprendre les effets de la stimulation et d'aider à la réalisation de séances de SMT. Suite au développement de ce logiciel, il est apparu que celui-ci était devenu patrimonial. L'objectif secondaire de ce travail fut donc d'analyser l'obsolescence du logiciel et d'essayer d'apporter des solutions pour limiter ce phénomène via l'utilisation de l'Ingénierie Dirigée par les Modèles (IDM). Après avoir présenté les phénomènes régissant l'activité cérébrale nous présentons les différentes techniques de stimulation neuronale et les avantages qu'offre la SMT. Nous présentons également les bases nécessaires à la compréhension des phénomènes électromagnétiques, puis une introduction aux concepts fondamentaux de l'IDM. Dans une troisième partie, l'accent est mis sur les différentes modélisations et méthodes de calcul des effets de la Stimulation Magnétique Transcrânienne avant de présenter la solution qui a été retenue et implantée dans le simulateur. Les deux dernières parties du manuscrit se focalisent sur le simulateur dans sa globalité (visualisation 3D) puis à la manière dont il pourrait être refactorisé pour faciliter sa maintenance et l'inclusion des évolutions possibles que nous présentons en conclusion.
APA, Harvard, Vancouver, ISO, and other styles
16

Ait, Brahim Amal. "Approche dirigée par les modèles pour l'implantation de bases de données massives sur des SGBD NoSQL." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10025/document.

Full text
Abstract:
La transformation digitale des entreprises et plus largement celle de la société, entraine une évolution des bases de données (BD) relationnelles vers les BD massives. Dans les systèmes informatiques décisionnels actuels, les décideurs doivent pouvoir constituer des bases de données, les réorganiser puis en extraire l’information pertinente pour la prise de décision. Ces systèmes sont donc naturellement impactés par cette évolution où les données sont généralement stockées sur des systèmes NoSQL capables de gérer le volume, la variété et la vélocité. Nos travaux s’inscrivent dans cette mutation ; ils concernent plus particulièrement les mécanismes d’implantation d’une BD massive sur un SGBDNoSQL. Le point de départ du processus d’implantation est constitué d’un modèle contenant la description conceptuelle des données et des contraintes d’intégrité associées.Peu de travaux ont apporté des solutions automatiques complètes portant à la fois sur les structures de données et les contraintes d’intégrité. L’objectif de cette thèse est de proposer une démarche générale qui guide et facilite la tâche de transformation d’un modèle conceptuel en un modèle d’implantation NoSQL. Pour ceci, nous utilisons l’architecture MDA qui est une norme du consortium OMG pour le développement dirigé par les modèles.A partir d'un modèle conceptuel exprimé à l'aide du formalisme UML, notre démarche MDA applique deux processus unifiés pour générer un modèle d’implantation sur une plateforme NoSQL choisie par l’utilisateur : - Le processus de transformation d’un DCL, - Le processus de transformation des contraintes associées, Nos deux processus s’appuient sur :- Trois niveaux de modélisation : conceptuel, logique et physique, où le modèle logique correspond à une représentation générique compatible avec les quatre types de SGBD NoSQL : colonnes, documents, graphes et clé-valeur, - Des métamodèles permettant de vérifier la validité des modèles à chaque niveau, - Des normes de l’OMG pour formaliser l’entrée du processus et l’ensemble des règles de transformation. Afin de vérifier la faisabilité de notre solution, nous avons développé un prototype composé de deux modules. Le premier applique un ensemble de règles de transformation sur un modèle conceptuel et restitue un modèle NoSQL associé à un ensemble de directives d’assistance. Le second module complète le premier en intégrant les contraintes qui ne sont pas prises en compte dans le modèle physique généré. Nous avons montré également la pertinence de nos propositions grâce à une évaluation réalisée par des ingénieurs d’une société spécialisée dans le décisionnel<br>Le résumé en anglais n'a pas été communiqué par l'auteur
APA, Harvard, Vancouver, ISO, and other styles
17

Lardy, Romain. "Calcul intensif pour l'évaluation de la vulnérabilité en utilisant une approche d'Ingénierie Dirigée par les Modèles : application à la vulnérabilité des prairies au changement climatique sous contraintes de plans d'expériences." Thesis, Clermont-Ferrand 2, 2013. http://www.theses.fr/2013CLF22352/document.

Full text
Abstract:
La vulnérabilité est le degré de stress ou de perturbation qu’un système humain et environnemental est capable de supporter avant d’être endommagé. Au cours des dernières années, c’est devenu un sujet central de l’étude du changement global (incluant le changement climatique), et l’évaluation de la vulnérabilité des agro-écosystèmes aux changements climatiques s’inscrit en effet dans les axes prioritaires de l’Institut National de la Recherche Agronomique (INRA). La littérature sur le changement climatique contient de nombreuses explications de la vulnérabilité, basée sur la notion de sensibilité et faisant éventuellement appel à des idées plus complexes, depuis la prise en compte de l’exposition jusqu’aux impacts résiduels du changement climatique après mise en place de mesures d’adaptation. Dans le cadre des activités de l’Unité de Recherche sur les Ecosystèmes Prairiaux (UREP), l’intérêt porte sur la vulnérabilité des systèmes prairiaux et d’élevage face aux risques de réduction de la production laitière et herbagère, ainsi que la problématique de l’augmentation des émissions de gaz à effet de serre qui accompagne la production des services d’un écosystème prairial.Compte-tenu du fait que l’analyse de vulnérabilité s’apparente à une forme d’analyse de sensibilité et de la cascade d’incertitudes lors des évaluations des impacts du changement climatique, un grand nombre de simulations sont nécessaires. Dans ce cadre, afin de réduire le temps d’attente utilisateur, la conception d’un plan expérimental approprié est nécessaire, ainsi que l’utilisation du calcul à haute performance. De plus, l’analyse de vulnérabilité peut se composer de nombreuses étapes parmi lesquelles on trouve la conception (choix du modèle agro-écologique, des variables d’intérêt, des scénarii et des seuils de référence, la distribution des paramètres, …), la génération de plans expérimentaux, la création de surfaces de réponse, le calcul de métriques (par exemple des indices de vulnérabilité) et l’optimisation (à travers la conception et l’évaluation de mesures d’adaptation) de la vulnérabilité. À notre connaissance, aucun outil spécifique n’a été conçu ou validé dans le but de faciliter l’exécution de la majeure partie des tâches énoncées précédemment. Ainsi, la problématique de cette thèse a été de proposer une méthode générique pour la réalisation d’une analyse de vulnérabilité sous changement climatique. Le travail réalisé dans cette thèse a donc commencé par une révision du concept de vulnérabilité et la proposition d’une démarche générique, en s’appuyant sur une synthèse critique des notions de l’état de l’art. Ensuite, avec une approche d’Ingénierie Dirigée par les Modèles, nous avons conçu un outil informatique pour l’analyse de vulnérabilité. Cet outil, implémenté avec le cadriciel Eclipse Modeling Framework (EMF),est générique, modulaire et permet la distribution et l’interprétation des simulations. Enfin,des exemples applicatifs d’analyse de vulnérabilité au changement climatique ont été réalisés à l’aide des solutions proposées précédemment. Cette démarche s’est notamment appuyée sur l’utilisation du modèle biogéochimique d’écosystème prairial PaSim ([Riedo et al., 1998], [Vuichard 2007a], [Graux 2011])<br>Vulnerability is the degree to which human or environmental systems are likely toexperience harm due to a perturbation or a stress. In the last years, it has become a centralfocus of the global change (including climate change). Assessing the vulnerability of agroecosystemsto climate change is one of the priority areas of the French National Institute ofAgronomic Research (INRA). The climate change literature contains many explanations ofvulnerability, stemming from the notion of sensitivity to more complex ideas, yet takinginto account the exposure history of the system up to residual impacts of climate changeafter adaptation. In the framework of the activities of the INRA’s Grassland EcosystemResearch Unit (UREP) of Clermont-Ferrand, interest is on vulnerability of grassland andlivestock systems against the risk of reduced milk and forage production, and against theproblem of increased greenhouse gas emissions that comes with the production ofgrassland ecosystem services.Vulnerability assessment has similarities with sensitivity analysis and is based onsimulations of the target system, forced to respond to the changes of stress factors. Due tothe cascade of uncertainties in climate change impacts assessment, a large number ofsimulations are necessary. In this context, the need to reduce user waiting time calls for theconception of an appropriate experimental plan, as well as the use of high performancecomputing. Moreover, vulnerability assessment may consist of many steps, such asdesigning the experiment (choice of agro-ecological model, variables of interest, scenarios,reference thresholds, parameters distribution …), designing of the experimental plans,regressing response surfaces, computing metrics (e.g. vulnerability indices) and optimizingvulnerability (through designing and evaluating adaptation measures). To our knowledge,no specific tool has been built or validated, in order to facilitate the implementation ofmost of these tasks. Thus, the goal of this thesis was to propose a generic method toperform a comprehensive vulnerability analysis to climate change. The work in this thesishas begun with a review of the concept of vulnerability and the proposal of a genericapproach, based on a critical synthesis of the state of the art. Then, with a Model DrivenEngineering approach, we have developed a computer tool for vulnerability analysis. Thistool, implemented with the modelling framework Eclipse Modeling Framework (EMF) isgeneric, modular and allows the distribution and interpretation of simulation results.Finally, application examples of climate change vulnerability assessment were achievedwith the previously proposed solutions. This approach relied, in particular, on the use ofthe grassland ecosystem biogeochemical model PaSim ([Riedo et al., 1998], [Vuichard2007a], [Graux 2011])
APA, Harvard, Vancouver, ISO, and other styles
18

Ouraiba, El Amine. "Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métier." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00790696.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
APA, Harvard, Vancouver, ISO, and other styles
19

Sahli, Nabil. "Contribution au problème de la sécurité sémantique des systèmes : approche basée sur l'ingénierie dirigée par les modèles." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0699.

Full text
Abstract:
Les infrastructures industrielles critiques seront dotées de plusieurs équipements embarqués intelligents. Elles exploitent des systèmes complexes, embarqués, intelligents et sémantiques pour leurs fonctionnements, en local et à distance, dans un contexte de développement, de villes intelligentes et du web des objets. Elles emploient, de plus en plus de systèmes «contrôle/commande», pour la surveillance des plateformes industrielles critiques, en temps réel. Les infrastructures critiques seront de plus en plus communicantes dans le cadre des échanges des alarmes et la mise en place de marchés euro-méditerranéens de l’électricité et davantage plus vulnérables. La cybernétique des plateformes critiques se développe, de jour en jour, essentiellement avec l’usage de systèmes complexes embarqués intelligents sémantiques, des services web, des ontologies,..etc. Ils sont tous embarqués sur les instruments intelligents, composant les systèmes sémantiques. Des réseaux de télécommunication intelligents, filaire et sans fil, dit hybrides, se développent. Ils représentent un grand challenge, pour la sécurité des systèmes communicants futurs. Dans un contexte de développement du web, des objets et des villes intelligentes, nos travaux de recherche visent à renforcer les bases de la sécurité et de la cybernétique sémantique, pour les systèmes communicants. Dans notre solution globale, en matière de sécurité sémantique, des infrastructures critiques, nous avons proposé plusieurs sous-solutions, tels que des méta-modèles et des modèles, ainsi qu’une stratégie de sécurité de bout en bout, avec un fonctionnement sur un réseau Cloud global, hybride et sécurisé<br>Critical, modern, current, and even future industrial infrastructures will be equipped with several intelligent embedded equipment. They exploit complex, embedded, intelligent and semantic systems for their operations, locally and remotely, in a context of development, smart cities and the web of things. They are using more and more SCADA and DCS control systems to monitor critical industrial platforms in real time. Critical infrastructures will be more and more communicating in the framework of the exchanges of allarmes and the establishment of Euro-Mediterranean markets of the életcricité and also more and more vulnerable, to classic and even semantic attacks, to viruses, to Trojan horses. The cybernetics of critical platforms is growing, day by day, mainly with the use of complex embedded intelligent semantic systems, web services, ontologies, and format files (XML, OWL, RDF, etc.). They are all embedded in intelligent instruments, making up semantic SCADA systems. Intelligent telecommunication networks, wired and wireless, called hybrids, are developing. They represent a great challenge for the security of future communicating systems. In a context of development of the web of things and smart cities, our research aims to strengthen the bases of security and semantic cybernetics, for communicating systems. In our global solution for semantic security, critical infrastructures, we have proposed several sub-solutions, such as metamodels and models, as well as an end-to-end security strategy, with operation on a global cloud network, hybrid and secure
APA, Harvard, Vancouver, ISO, and other styles
20

Samyn, Mickaël. "Une simulation fonctionnelle d'un système monopuce dédié au traitement du signal intensif : une approche dirigée par les modèles." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9eec6f23-301f-4b30-b5b0-73be4f4ad924.

Full text
Abstract:
Ces quelques dernières années, le monde de la conception des systèmes monopuces a subi un très grand bouleversement. D'une part, la puissance des nouvelles applications fait que les nouveaux systèmes doivent incorporer de nombreuses ressources hétérogènes. D'autre part, les nouvelles technologies permettent d'incorporer de plus en plus de composants sur une même surface de silicium. Les méthodes de conception actuelles, basées sur l'expérience des concepteurs pour choisir les différentes architectures, ne permettent plus de suivre l'évolution des technologies, d'autant plus que la durée de vie des systèmes est de plus en plus courte, alors que le temps de mise sur le marché et le coût de conception ne font qu'augmenter. L'approche adoptée dans cette thèse s'inscrit dans un projet global de co-modélisation et co-conception appelé Gaspard. Elle vise à remédier, même partiellement à ces nouvelles exigences. La méthodologie est basée sur les principes de l'architecture dirigée sur les modèles (MDA), et plus particulièrement la partie traitant de la simulation et de l'analyse de performances à un haut niveau d'abstraction. Dans cette thèse, un métamodèle, permettant la modélisation des systèmes, est décrit. Ensuite, une méthodologie de génération de code, utilisant des moteurs de transformations, est utilisée afin de générer le code nécessaire à la simulation du système modélisé. Enfin, une présentation des différents critères retenus pour l'estimation du système est faite.
APA, Harvard, Vancouver, ISO, and other styles
21

Menet, Ludovic. "Formalisation d'une approche d'Ingénierie Dirigée par les Modèles appliquée au domaine de la gestion des données de référence." Paris 8, 2010. http://www.theses.fr/2010PA083184.

Full text
Abstract:
Notre travail de recherche s'inscrit dans la problématique de la définition de modèles de données dans le cadre de la Gestion des données de Référence ou Master Data Management. En effet, l'Ingénierie Dirigée par les Modèles (IDM) est un thème en pleine expansion aussi bien dans le monde académique que dans le monde industriel. Elle apporte un changement important dans la conception des applications en prenant en compte la pérennité des savoir-faire, des gains de productivité et en tirant profit des avantages des plateformes sans souffrir d'effets secondaires. L'architecture IDM se base sur la transformation de modèle pour aboutir à une solution technique sur une plateforme de notre choix à partir de modèles métier indépendants de toute plateforme. Dans cette thèse une démarche conceptuelle et expérimentale de l'approche IDM est appliquée à la définition de modèles de données pivot qui sont la base de la Gestion des Données de Référence ou Master Data Management (MDM). Ainsi utilisons nous UML (Unified Modeling Language), comme formalisme pour décrire les aspects indépendants de la plateforme (modèle métier), et nous proposons un métamodèle, sous la forme d’un profil UML, pour décrire les aspects dépendants de la plateforme MDM. Ensuite, nous présentons notre démarche pour passer d'un modèle métier vers un modèle de plateforme pour pouvoir générer le modèle pivot physique. Les apports de cette thèse sont : l'étude d’une approche IDM dans le contexte du MDM, la définition de transformations d’UML vers un modèle MDM (basé sur une structure XML Schema), d'autre part nous apportons un aspect inédit à l’IDM appliquée au MDM à savoir la définition d’une méthode de validation incrémentale de modèles permettant d’optimiser les phases de validation lors de la conception de modèles<br>Our research work is in line with the problematic of data models definition in the framework of Master Data Management. Indeed, Model Driven Engineering (MDE) is a theme in great expansion in the academic world as well as in the industrial world. It brings an important change in the conception of applications taking in account the durability of savoir-faire and of gains of productivity, and taking profits of platforms advantages without suffering of secondary effects. The MDE architecture is based on the transformation of models to come to a technical solution on a chosen platform from independent business models of any platform. In this thesis, a conceptual and technical thought process of the MDE approach is applied to the definition of pivot data models, which are the base of Master Data Management (MDM). Thus, we use Unified Modeling Language (UML) as formalism to describe the independent aspects of the platform (business model), and we propose a meta-model, in the form of an UML profile, to describe the dependent aspects of the MDM platform. Then, we present our approach to move from a business model to a platform model to be able to generate the physical pivot model. The inputs of the thesis are : the study of a MDE approach in the MDM context, the definition of UML transformations towards a MDM model (based on a XML Schema structure), besides we bring a new aspect to MDE applied to MDM, that is to say the definition of a method for incremental model validation allowing the optimization of validation stages during model conception
APA, Harvard, Vancouver, ISO, and other styles
22

Elouali, Nadia. "Approche à base de modèles pour la construction d’applications mobiles multimodales." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10084/document.

Full text
Abstract:
Aujourd'hui, les smartphones intègrent une grande variété de capteurs tel que l’accéléromètre, le capteur de lumière, le capteur d'orientation, etc. Créé pour détecter les informations du contexte, ces capteurs ont permis également l’apparition des nouvelles modalités d'interaction comme par exemple le secouage du téléphone ou la modification de son orientation. L’utilisation de ces modalités réduit les restrictions d’interaction avec les smartphones et ouvrent la voie à une grande expansion des interactions multimodales sous mobiles. Malheureusement, le contexte actuel de développement des logiciels mobiles rend difficile le développement d'applications multimodales. Dans cette thèse, notre challenge consiste à aider les développeurs pour faire face à cette difficulté. Nous proposons une solution à base des modèles qui vise à faciliter le développement d'interfaces mobiles multimodales. Nous adoptons les principes de l’Ingénierie Dirigée par les Modèles (IDM), qui convient parfaitement avec un tel contexte. Notre proposition consiste en un langage de modélisation nommé M4L (mobile multimodalité Modeling Language), ainsi qu’un framework nommé MIMIC (mobiles multimodalité Créateur) qui se base sur M4L pour permettre la modélisation graphique et la génération automatique des interfaces mobiles multimodales (en entrée et en sortie). Notre approche respecte les principaux critères de l’IDM afin d‘être efficace. Les résultats de nos évaluations suggèrent que l'utilisation de MIMIC (basé sur le langage M4L) facilite le développement des interfaces mobiles multimodales<br>Today, smartphones present a great variety of features and embed an important number of sensors (accelerometer, touchscreen, light sensor, orientation sensor…). Created for giving context-aware abilities, these sensors also allow new types of interaction like shaking the phone or changing its orientation. Such type of interaction reduces limitation of mobile phones and paves the way to a great expansion of multimodal mobile interactions. Unfortunately, the current context of mobile software development makes difficult the development of multimodal applications. In this thesis, we intend to help developers to deal with this difficulty by providing a mode-lbased solution that aims to facilitate the development of multimodal mobile interfaces. We adopt the principles of the Model Driven Engineering (MDE), which is particularly fitted for such context. Our proposition includes M4L (Mobile MultiModality Modeling Language) modeling language to model the (input/output) multimodal interactions and the MIMIC (MobIle MultImodality Creator) framework that allows the graphical modeling and automatic generation of multimodal mobile interfaces. Our approach respects the main criteria of the MDE in order to define an efficient model-based approach. The results of our evaluations suggest that using our approach facilitates the development of sensor-based multimodal mobile interfaces. With our contributions, we aim to facilitate the penetration of multimodal applications and benefit from their advantages
APA, Harvard, Vancouver, ISO, and other styles
23

Denisse, Munante. "Une approche basée sur l'Ingénierie Dirigée par les Modèles pour identifier, concevoir et évaluer des aspects de sécurité." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3035/document.

Full text
Abstract:
L'ingénierie des systèmes ou Génie Logiciel est une approche interdisciplinaire, dont le but est de formaliser la conception et le développement des systèmes. Cette approche commence par la définition des besoins, puis se poursuit avec la conception, l'implémentation et la validation du système. Historiquement, les systèmes ont été isolés et souvent basés sur des technologies propriétaires. De nos jours les systèmes informatiques s'interconnectent, s'ouvrent vers Internet, et s'appuient de plus en plus sur des technologies standards en favorisant l'inter-opérabilité. A côté d'apports indéniables, ces changements génèrent cependant de nouveaux risques de malveillance informatique. Pour y faire face, la sécurité informatique s'est fortement développée en permettant de mettre en place des contre-mesures plus ou moins fiables. Cette thèse se situe à la croisée de l'ingénierie des systèmes et de la sécurité. Elle vise à proposer une approche qui intègre ces deux domaines de manière collaborative et complémentaire. Même si ces deux domaines sont très liés l'un à l'autre, il existe relativement peu d'approches qui intègrent les aspects sécurité au processus d'ingénierie logicielle, et encore moins celles qui la considèrent dès la phase d'ingénierie des besoins, et/ou permettent l'évaluation de la politique de sécurité à un haut niveau d'abstraction. Cette thèse apporte une contribution dans ce domaine. Par conséquent, dans cette thèse nous proposons une approche basée sur l'IDM (Ingénierie Dirigée par les Modèles) et MDA (Model-Driven Architecture) qui intègre l’ingénierie des systèmes et la sécurité en utilisant les modèles. Cette approche permet d’identifier, de concevoir et d’évaluer des aspects de sécurité dans les différentes étapes de l'ingénierie des systèmes afin d'obtenir des systèmes sécurisés<br>Software engineering is an interdisciplinary approach aiming to formalize the development of systems. This approach begins with defining system requirements and then continues with defining the design, implementation and validation of systems. Historically, systems were isolated and often based on proprietary technologies. Todays, computer systems are interconnected using Internet and standard technologies by promoting interoperability. In spite of undeniable contributions, these changes engender new risks of computer vulnerabilities/attacks. To cope with these risks, information security has improved to implement more or less reliable counter-measures. This thesis is situated at the intersection/crossroads of the software engineering and the information security. It aims to propose an approach that integrates these two fields in a collaborative and complementary manner. Although both fields are closely related, there are few approaches that integrate security aspects into software engineering process, much less from engineering requirements, which allow the assessment of security policies from a high level of abstraction. Hence, this thesis makes a contribution in this area. Therefore, in this thesis, we propose an approach based on MDE (Model-Driven Engineering) and MDA (Model Driven Architecture) which integrates software engineering and information security using models. This approach allows to identify, to design and to assess security aspects in the stages of the system development in order to obtain secure systems
APA, Harvard, Vancouver, ISO, and other styles
24

Baïna, Salah. "INTEROPERABILITE DIRIGEE PAR LES MODELES :Une Approche Orientée Produit pour l'interopérabilité dessystèmes d'entreprise." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00123271.

Full text
Abstract:
Les travaux de la thèse présentent une approche pour l'interopérabilité entre les différents<br />modèles de produit, nous appellerons cette approche « l'interopérabilité orientée produit ».<br />Nous proposons ainsi un meta-modèle dont les instances jouent le rôle de passerelle de<br />communication entre différentes applications d'entreprise pour assurer l'interopérabilité des<br />parties de systèmes concernant le produit.<br />Nous nous sommes intéressés à formaliser un meta-modèle pour la définition du concept de<br />produit comme l'agrégation d'une partie physique représentant les éléments physiques du<br />produit et une partie informationnelle reprenant les éléments informationnels décrivant le<br />produit.<br />L'outillage et le prototypage du concept de produit holonique lors de la modélisation du<br />processus de fabrication dans l'entreprise ainsi que la prise en charge des mapping pour<br />l'interopérabilité s'appuient sur l'intégration du meta-modèle holonique dans un<br />environnement de modélisation d'entreprise particulier.<br />La phase de validation a été réalisée en deux parties représentées chacune par une application<br />industrielle. La première application se situe dans le cadre d'une collaboration avec le<br />département meunerie dans un grand groupe industriel, pour une application en<br />environnement réel de la modélisation holonique. L'objectif de cette application est de<br />concevoir un système de traçabilité pour les différents produits par les moulins du groupe.<br />Notre participation dans ce projet, a consisté en l'application de l'approche de modélisation<br />holonique pour la spécification, a priori, de l'ensemble des données et informations relatives<br />aux produits devant être prises en compte dans le système de traçabilité, et ainsi de générer de<br />manière automatique le schéma de données préliminaire du système. La seconde application<br />concerne la mise en œuvre de l'approche holonique pour une solution d'interopérabilité<br />orienté produit dans le cadre du pôle AIP Lorrain (AIPL).
APA, Harvard, Vancouver, ISO, and other styles
25

Liu, Hui. "Intégration des approches ontologiques et d'ingénierie dirigée par les modèles pour la résolution de problèmes d'interopérabilité." Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00662511.

Full text
Abstract:
Quand des entreprises collaborent entre elles pour atteindre leurs objectifs métiers, des problèmes d'interopérabilité seront rencontrés. Afin de résoudre ces problèmes, nous étudions les domaines suivants : les processus métier collaboratifs, MDA, SOA, ESB et l'ontologie. Nous proposons alors un cadre intégrant ces cinq domaines pour les solutions TI (technologies de l''information) aux problèmes d'interopérabilité. Pour construire ce cadre, nous proposons une Méthode Basée sur des Processus pour l'Interopérabilité d'Entreprise (MBPIE), qui utilise des processus collaboratifs pour représenter des exigences de collaboration. MBPIE transforme des processus collaboratifs en plusieurs processus d'interopérabilité exécutables par des transformations de modèles. En MBPIE, l'ontologie est utilisée pour annoter les processus collaboratifs. Pendant la transformation des processus, de nouvelles informations ontologiques sont ajoutées dans les processus pour les rendre exécutables. Nous avons conçu un bus de services sémantiques Basé sur l'Ontologie et Dirigé par des Buts (BODB) pour supporter l'exécution des processus d'interopérabilité. Ce bus est basé sur un mécanisme symétrique pour l'invocation de services sémantiques. Ce mécanisme utilise l'extension de SOAP (Simple Object Access Protocol) qui est composée de trois parties : le format des messages BODB, le module BODB et le modèle de traitement BODB. Ce mécanisme a trois propriétés de transparence (emplacement, sémantique et technique) qui sont essentielles à l'exécution des processus d'interopérabilité. Ensemble, MBPIE et le bus constituent une approche fédérée pour résoudre les problèmes d'interopérabilité.
APA, Harvard, Vancouver, ISO, and other styles
26

Desjouis, Boris. "Réalisation d'un simulateur évolutif, système multi-agents et approche dirigée par les modèles : application à la simulation électrique ferroviaire." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI018.

Full text
Abstract:
La traction ferroviaire est apparue au XIXème siècle. Son développement est dû au fait qu’elle permet le déploiement de modes de transports de masses, économiques, fiables et sécurisés. Il a été rendu possible par la mise en œuvre de moyens techniques et humains considérables qui doivent perdurer pour assurer son bon fonctionnement. Nous aurions tort de penser qu’il est aisé de faire circuler des trains à grandes vitesses à 3 minutes d’intervalle pour assurer le meilleur service possible tout en garantissant la sureté des voyageurs par exemple. Ceci rend la problématique ferroviaire particulière, et intéressante, car elle se situe à l’interface de différents métiers qui doivent tous être coordonnés.La difficulté d’évaluation des situations ferroviaires a mené au développement d’outils de simulation spécifiques dont il est aujourd’hui impossible de se priver pour entretenir, modifier ou étendre le réseau. Ces travaux se focalisent ainsi sur les outils d’aide au dimensionnement des installations de tractions électrique. Ces dernières constituent le cœur même du système puisque c’est à travers elles que le réseau s’alimente en énergie. Le coût énergétique a toujours été au centre des préoccupations et est à nouveau la raison profonde qui motive ces travaux. En effet, si le réseau n’a jamais cessé d’évoluer avec l’émergence de nouvelles technologies visant à diminuer le coût énergétique, la tendance va aujourd’hui en s’accélérant pour chercher et développer de nouveaux de dispositifs ou mode d’exploitation autorisant des économies substantielles. Se posent alors les problématiques liées à la recherche de telles solutions et à leur déploiement. Les considérations techniques liées à leur intégration au sein du réseau, leur intérêt économique, … doivent être étudié selon des modèles assurant un bon degré de précision. Les outils de simulation doivent donc être en mesure de lier au sein d’une même modélisation, d’un même environnement informatique, des problématiques connexes comme le déplacement des trains sur le réseau et le fonctionnement du réseau d’installations électriques (tels les simulateurs existants) et également considérer des modèles spécifiques permettant l’étude de nouvelles solutions (tel les smart grid, l’élaboration d’un trafic coordonnée optimal du point de vue énergétique …). Nous présentons alors le sujet de cette thèse qui traite de la conception d’un simulateur évolutif dont le modèle est élaboré pour prendre en compte les technologies futures et donc être un système ouvert.Nous avons deux objectifs majeurs. D’une part nous devons être en mesure de réaliser un modèle de réseau électrique ferroviaire qui assure le même degré de finesse du réseau que les modèles déjà en place. Vu les enjeux liés à la qualification des résultats nous nous imposons de réutiliser les modèles existant au maximum. Ceci met bien sur des contraintes supplémentaires de réalisation. D’autre part l’architecture que nous proposons (et le modèle informatique de cette architecture) doit pouvoir évoluer facilement. Afin de pouvoir garantir ces objectifs nous devons dissocier clairement les modèles physiques des problèmes liés à l’architecture logicielle elle-même Nous cherchons donc à proposer un environnement selon une approche originale qui s’inscrit dans une démarche d’ingénierie dirigée par les modèles<br>The rail traction appeared in the nineteenth century. Its development is due to the fact that it allows the deployment of mass transport modes, economic, reliable and secure. It was made possible by the implementation of considerable resources - technical and human - that have to perdure in order to ensure proper railway network operation. It would be wrong to think that it is easy to circulate to high speed trains to 3 minutes apart to ensure the best possible service while ensuring the safety of passengers. This makes the railway problematic special and interesting because it lies at the interface of different trades which must be coordinated.The difficulty of assessing situations rail led to the development of specific simulation tools. Now they can't be ignore to maintain, modify or expand the network. Therefore this work will focus on simulation tools that aid to the design of railway power supply installations. These are the very heart of the system since they provides the power through the system. The energy cost has always been a central concern and it is again the underlying reason that motivates this work. Indeed, if the network has continued to evolve with the emergence of new technologies to reduce the energy cost, the trend is accelerating today to seek and develop new devices or operating mode that allow substantial savings. This raises issues related to the search for such solutions and their deployment. The technical considerations related to their integration within the network, their economic interest ... shall be considered as models ensuring a good degree of accuracy. Simulation tools must be able to link in a same model - the same computing environment - related problems such as movement of trains on the network and the operation of the network power supply installations (such existing simulators) and also consider specific models for the study of new solutions (such as the smart grid, the development of an optimal coordinated traffic ...). Then we present this thesis which deals with the design of an evolutionary simulator whose the model is developed to accommodate future technologies and thus must be an open system.We have two major objectives. On the one hand we have to be able to realize a railway simulator that provides the same degree of finesse that models already in place. Given the issues qualifying results we impose reuse existing models to the maximum. This puts additional stress on designing the simulator. On the other hand the architecture we propose (and the computer model of this architecture) must evolve easily. In order to ensure these objectives we must clearly separate the physical models of problems related to software architecture itself. Therefore we offer an environment using an original approach that fits the approach of model driven architecture
APA, Harvard, Vancouver, ISO, and other styles
27

Lallican, Jean-Louis. "Proposition d'une approche composant pour la conception de la commande des systèmes transitiques." Lorient, 2007. http://www.theses.fr/2007LORIS105.

Full text
Abstract:
Le travail présenté dans ce mémoire s’intéresse à la conception de la commande des systèmes transitiques. Son but est de proposer une démarche permettant d’automatiser le développement des programmes de commande, localisés au niveau 1 du CIM. Les objectifs d’une telle démarche sont non seulement d’apporter un gain de temps mais également d’obtenir, avant implantation sur système réel, une commande plus sûre. La démarche répond aux préoccupations des industriels, et se distingue par son cadre logiciel permettant la génération automatique des programmes de commande (compatibles avec la norme CEI 61131-3). Il est également aisé de vérifier que le système contrôlé est bien conforme aux exigences requises et respecte bien les caractéristiques de conception attendues. La démarche repose sur une description du système transitique, basée sur une approche composant. La méthodologie de génération des programmes de commande fait appel à des outils d’ingénierie dirigée par les modèles et reprend les concepts de l’approche MDA. Le système contrôlé est vérifié en simulant conjointement le modèle de la partie opérative du système et ses programmes de commande. Un exemple d'application basé sur un cas d’étude réel, le convoyeur de l’IUP de Lorient, illustre les apports de notre démarche<br>This thesis addresses control design issues for conveying systems. The proposed approach is focused on the first CIM level and aims at generating discrete control programs automatically. This approach not only appears to be time and energy saving, it also produces safer control code. The global design process meets industrial needs, and comes along with a software framework allowing the automatic generation of IEC 61131-3 standard compliant control code. Furthermore, it is easy to check that the controlled system meets its specifications and has the expected behavior. The global design process is based on components to model controlled conveying systems. Model engineering technologies have been intensively used in the generating control process, that is based on a MDA approach. The controlled system validation relies on a joint simulation of the transitic system’s material part and its control programs. The proposed approach has been successfully tested on a conveying system located in Lorient, France. The results show that expectations are met
APA, Harvard, Vancouver, ISO, and other styles
28

Guérin, Xavier. "Approche efficace de développement de logiciel embarqué pour des systèmes multiprocesseurs sur puce." Grenoble, 2010. http://www.theses.fr/2010GRENM019.

Full text
Abstract:
Cette dissertation montre que des applications embarquées complexes peuvent tirer partie efficacement de plateformes MP-SoC hétérogènes tout en respectant les critères de flexibilité, mise à l'échelle, portabilité et time-to-market. Elle fait la description d'un flot de conception de logiciel embarqué amélioré combinant un générateur de code, GECKO, et un environnement logiciel innovant, APES, afin d'obtenir un haut niveau d'efficacité. La contribution ainsi présentée est double : 1) un flot de conception de logiciel embarqué amélioré avec un ensemble d'outils permettant la construction automatique d'objets binaires minimaux pour une application donnée ciblant une plateforme MP-SoC donnée, et 2) un ensemble de composants logiciels modulaire et portable incluant des mécanismes de systèmes d'exploitations traditionnels ainsi que le support de multiples processeurs<br>This dissertation shows that complex, embedded software applications can effectively operate heterogeneous MP-SoC with respect to flexibility, scalability, portability, and Time-To- Market. It presents an improved embedded software design flow that combines an application code generator, GECKO, and a novel software framework, APES, to achieve a high level of efficiency. Our contribution is twofold: 1) an improved embedded software design flow with several tools that enable the automatic construction of minimal and optimized binaries for a given application targeting a given MP-SoC, and 2) a modular and portable set of software components that includes traditional operating system mechanisms as well as the support for multiple processors
APA, Harvard, Vancouver, ISO, and other styles
29

Dieng, Idrissa Abdoulaye. "SELECTA : une approche de construction d'applications par composition de services." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00494483.

Full text
Abstract:
On appelle composition le mécanisme permettant la réalisation d'applications logicielles par intégration de services. Les applications à service exigeant souvent des propriétés telles que la sélection dynamique ou non déterministe des services, le concept d'application doit être défini différemment, et le processus de composition est très difficile à réaliser manuellement. Le processus de composition devrait être automatisé par des outils et des environnements logiciels. Ces outils devraient permettre d'une part la construction d'applications flexibles et d'autre part garantir la cohérence et la complétude de la composition. Cette thèse s'intéresse à la construction d'applications depuis leur conception jusqu'à leur exécution. Dans cette thèse, nous proposons une approche de composition de services et un prototype nommé SELECTA permettant de répondre aux besoins et aux défis de la composition de services, tels que l'augmentation du niveau d'abstraction de la spécification de la composition, la construction incrémentale de composites, la gestion de la cohérence et de la complétude de composites, la définition de langages de contraintes de services ou d'algorithmes de sélection de services.
APA, Harvard, Vancouver, ISO, and other styles
30

Palyart-Lamarche, Marc. "Une approche basée sur les modèles pour le développement d'applications de simulation numérique haute-performance." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1990/.

Full text
Abstract:
Le développement et la maintenance d'applications de simulation numérique haute-performance sont des activités complexes. Cette complexité découle notamment du couplage fort existant entre logiciel et matériel ainsi que du manque d'accessibilité des solutions de programmation actuelles et du mélange des préoccupations qu'elles induisent. Dans cette thèse nous proposons une approche pour le développement d'applications de simulation numérique haute-performance qui repose sur l'ingénierie des modèles. Afin à la fois de réduire les couts et les délais de portage sur de nouvelles architectures matérielles mais également de concentrer les efforts sur des interventions à plus haute valeur ajoutée, cette approche nommée MDE4HPC, définit un langage de modélisation dédié. Ce dernier permet aux numériciens de décrire la résolution de leurs modèles théoriques dans un langage qui d'une part leur est familier et d'autre part est indépendant d'une quelconque architecture matérielle. Les différentes préoccupations logicielles sont séparées grâce à l'utilisation de plusieurs modèles et de plusieurs points de vue sur ces modèles. En fonction des plateformes d'exécution disponibles, ces modèles abstraits sont alors traduits en implémentations exécutables grâce à des transformations de modèles mutualisables entre les divers projets de développement. Afin de valider notre approche nous avons développé un prototype nommé ArchiMDE. Grâce à cet outil nous avons développé plusieurs applications de simulation numérique pour valider les choix de conception réalisés pour le langage de modélisation<br>The development and maintenance of high-performance scientific computing software is a complex task. This complexity results from the fact that software and hardware are tightly coupled. Furthermore current parallel programming approaches lack of accessibility and lead to a mixing of concerns within the source code. In this thesis we define an approach for the development of high-performance scientific computing software which relies on model-driven engineering. In order to reduce both duration and cost of migration phases toward new hardware architectures and also to focus on tasks with higher added value this approach called MDE4HPC defines a domain-specific modeling language. This language enables applied mathematicians to describe their numerical model in a both user-friendly and hardware independent way. The different concerns are separated thanks to the use of several models as well as several modeling viewpoints on these models. Depending on the targeted execution platforms, these abstract models are translated into executable implementations with model transformations that can be shared among several software developments. To evaluate the effectiveness of this approach we developed a tool called ArchiMDE. Using this tool we developed different numerical simulation software to validate the design choices made regarding the modeling language
APA, Harvard, Vancouver, ISO, and other styles
31

Nakhli, Chaker. "Approche fondée sur les modèles pour java temps-réel." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2005. http://tel.archives-ouvertes.fr/tel-00133652.

Full text
Abstract:
Construire des modèles qui représentent fidèlement les systèmes temps réels complexes est indispensable pour l'analyse de leurs propriétés fonctionnelles et temporelles. Ce travail présente une méthodologie de modélisation pour les systèmes temps réels dans le contexte de la technologie Java. Le modèle est obtenu par la restriction du modèle fonctionnel du logiciel avec les informations temporelles appropriées. Nous établissons un sous ensemble du langage Java qui réglemente la structure concurrente de l'application, la communication et les pratiques de programmation au niveau des threads, des objets et du flot de contrôle. Le modèle fonctionnel est construit à partir de règles de réécriture basées sur la sémantique du langage. Les modèles non temporisés sont ensuite décorés par les informations relatives à la plate forme d'exécution, la dynamique de l'environnement et les échéances temps réel. La méthodologie de modélisation à été implémentée dans l'outil JediTool.
APA, Harvard, Vancouver, ISO, and other styles
32

Dumez, Christophe. "Approche dirigée par les modèles pour la spécification, la vérification formelle et la mise en oeuvre de services Web composés." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2010. http://tel.archives-ouvertes.fr/tel-00515130.

Full text
Abstract:
Dans ce travail, une approche pour la spécification, la vérification formelle et la mise en oeuvre de services Web composés est proposée. Il s'agit d'une approche dirigée par les modèles fidèle aux principes de MDA définis par l'OMG. Elle permet au développeur de s'abstraire des difficultés liées à l'implémentation en travaillant sur les modèles de haut niveau, indépendants de la plateforme ou de la technologie d'implémentation cible. Les modèles sont réalisés à l'aide du langage de modélisation UML. Plus précisément, une extension à UML nommée UML-S est proposée pour adapter le langage au domaine de la composition de services. Les modèles UML-S sont suffisamment expressifs et précis pour être directement transformés en code exécutable tout en conservant leur lisibilité. Ces modèles peuvent également être transformés en descriptions formelles LOTOS afin de procéder à leur vérification formelle. L'approche proposée contribue à réduire les temps et les coûts de développement tout en assurant la fiabilité des services composés.
APA, Harvard, Vancouver, ISO, and other styles
33

Leroux-Beaudout, Renan. "Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30089.

Full text
Abstract:
Ce manuscrit présente une méthodologie pour la conception de systèmes de simulation de modèles en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles. Le but est de permettre à l'architecte système d'explorer des solutions alternatives et de vérifier et/ou valider l'architecture du système en cours de conception, en regard des exigences et besoins des parties prenantes. Cette méthodologie se décline suivant deux axes complémentaires : la partie méthode et les moyens d'exécution, sans lesquels il ne peut y avoir de simulation. Cette nouvelle méthode se fonde sur le principe suivant : partir des exigences utilisateur pour créer les modèles d'architecture système, puis en dériver l'architecture de simulation, développer les modèles exécutables et exécuter la simulation en relation avec les objectifs de vérification et/ou validation. En agissant ainsi, les écarts d'interprétations potentiels entre le modèle d'architecture système et les modèles de simulation sont supprimés ou à tout le moins réduits, par rapport à une approche traditionnelle. Cette nouvelle méthode est de type matriciel. Les colonnes représentent les acteurs, tandis que les lignes correspondent aux différentes étapes de la méthode MBSE employée par l'architecte système pour le produit, y compris les étapes de raffinements. Les acteurs sont l'architecte système pour le produit (SyA), un premier nouvel acteur introduit par cette méthode : l'architecte système pour la simulation (SiA), les développeurs des modèles exécutables de simulation (SMD). Un second nouvel acteur est en charge de l'exécution de la simulation (SEM) au sein de chacune des entreprises, en charge de l'analyse et de la production des résultats exploitables par l'architecte système pour le produit. Avec cette méthode matricielle, le SyA peut demander des simulations, soit en profondeur pour préciser un point particulier de son modèle, soit en extension pour vérifier la bonne concordance des fonctions entre elles, tout en réutilisant des fonctions déjà définies durant les étapes amont ou aval de ses décompositions précédentes. Au global, gains de temps, de coûts, et de confiance. Le deuxième axe de cette méthodologie concerne la réalisation d'une plateforme de cosimulation en entreprise étendue (EE), qui est un projet en soi. Le MBSE a permis de définir une architecture fonctionnelle et physique de cette plateforme de cosimulation qui peut être amendée en fonction des besoins exprimés par l'architecte de la simulation. La proposition introduit un troisième nouvel acteur : le Infrastructure Project Manager (IPM) qui est en charge de la coordination pour la réalisation de la plateforme de cosimulation, au sein de son entreprise. Pour une EE de type donneur d'ordres à soustraitants, introduction de deux nouveaux acteurs : le superviseur d'IPM et le responsable de l'exécution des simulations (SEM), dont leurs rôles respectifs sont de faire le lien avec leurs pendants chez les partenaires<br>This manuscript presents a methodology for the design of "early" simulations in extended enterprise, based on model-driven system engineering. The goal is to allow the system architect to explore alternative solutions, and to verify and/or validate the system architecture being designed, in relation to the user requirements. This methodology is divided into two complementary axes : the method part (new) and the means of execution, without which there can be no simulation. This new method is based on the following principle : starting from the user requirements to create the system architecture model, then derive the simulation architecture, develop the executable models and run the simulation in relation to objectives of verification and/or validation. By doing this, potential differences in interpretations between the system architecture model and simulation models are removed or at least reduced compared to a traditional approach. This method is of matrix type. The columns represent the actors, while the lines correspond to the different steps of the MBSE method used by the system architect for the product, including the refinement steps. The actors are the system architect for the product (SyA), a first new actor introduced by this method : the system architect for the simulation (SiA), the developers of the simulation executable models (SMD), and the second new actor in charge of the execution of the simulation (SEM). The analysis of its qualities and the production of results exploitable by the system architect for the product. As the method relies on a matrix structure, the SyA can request simulations, either in depth to specify a particular point of its model, or more in extension to check the good agreement of the functions between them. With this new matrix approach, the system architect for the product can reuse functions already defined during the upstream or downstream stages of its previous decompositions. Overall, saving time, costs, and confidence. The second axis of this methodology is the realization of an extended enterprise cosimulation (EE) platform, which is a project in itself. Based on a proposal of requirements specifications, the MBSE has defined a functional and physical architecture. The architecture of this platform can be modified according to the simulation needs expressed by the architect of the simulation. This is one of his prerogatives. The proposal introduces a third new player : the Infrastructure Project Manager (IPM) which is in charge of coordinating for the realization of the cosimulation platform, within his company. For an EE of federated type, that is to say from contractor to subcontractor, introduction of two new actors : - the supervisor of IPM, whose rôle is to link IPMs to solve the administrative and interconnection problems, - the person responsible in charge of the execution simulations. He coordinates, with the SEM of each partner, the implementation of simulations, ensures launches, and returns the results to all partners
APA, Harvard, Vancouver, ISO, and other styles
34

Nguyen, Thi Thanh Tam. "Codèle : Une Approche de Composition de Modèles pour la Construction de Systèmes à Grande Échelle." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00399655.

Full text
Abstract:
Depuis "toujours", en Génie Logiciel comme dans toutes les ingénieries, afin réduire la complexité et pour améliorer la réutilisation, le produit à construire est divisé en parties construites indépendamment et ensuite assemblées. L'approche récente de l'Ingénierie Dirigée par les Modèles (IDM, ou MDE pour Model-Driven Engineering), fait de même, en proposant "simplement" que les parties à construire et à assembler soient des modèles et non pas des programmes. C'est ainsi que le problème de la composition de modèles est devenu un thème important de l'IDM, et le sujet de cette thèse. En effet, un système logiciel réel est bien trop complexe pour pouvoir être décrit par un seul modèle. De nombreux modèles devront être créés pour le spécifier, soit à divers niveaux d'abstraction, soit selon divers points de vue, soit encore selon des domaines fonctionnels differents et complémentaires. Dans ce travail, nous partons de l'hypothèse que de tels domaines métiers existent. Un domaine est un champ d'expertise avec 1) les savoir-faire et les connaissances capturés et formalisés sous la forme d'un langage de modélisation dédié au domaine (un Domain-Specific Modeling Language (DSML)), et 2) des outils et des environnements supportant le développement d'applications dans ce domaine. Une application, dans un domaine, est décrite par un modèle (conforme au métamodèle du domaine). Dans ce travail, nous faisons aussi l'hypothèse que ces domaines sont exécutables ; les modèles du domaine sont exécutés par une machine virtuelle du domaine. En IDM, comme dans les autres approches du Génie Logiciel, la réutilisation impose que le processus d'assemblage des parties puisse se faire sans avoir à modifier celles-ci, ni bien sur l'environnement qui les a produit ou qui les exécute. Appliqué à notre contexte, cela signifie qu'il faut être capable de composer des modèles sans les modifier et sans modifier ni l'éditeur ni la machine virtuelle du domaine dont ils sont issus. C'est le problème que nous abordons dans notre travail. Nous montrons que pour atteindre cet objectif, il faut d'abord composer les domaines c'est à dire composer leurs métamodèles et leurs machines virtuelles, puis les modèles. Nous montrons dans ce travail comment ces compositions peuvent être réalisées sans modifier les éléments compos és, en utilisant des relations dites horizontales entre les métamodèles, et des liens entre les modèles. Cette approche est validée d'abord par la réalisation d'un certain nombre de domaines composites, et par de nombreuses compositions de modèles opérationnelles. Une partie importante du travail a consisté à définir Codèle, un langage de composition de modèles et de métamodèles, et à réaliser l'environnement d'assistance correspondant. Codèle assiste les ingénieurs pour composer de façon systématique les domaines, et rend automatique ou semi-automatique la composition de tous modèles provenant de ces domaines. Nous présentons l'outil Codèle et nous évaluons son usage dans divers projets.
APA, Harvard, Vancouver, ISO, and other styles
35

Bruneliere, Hugo. "Generic Model-based Approaches for Software Reverse Engineering and Comprehension." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4040/document.

Full text
Abstract:
De nos jours, les entreprises font souvent face à des problèmes de gestion, maintenance, évolution ou remplacement de leurs systèmes logiciel existants. La Rétro-Ingénierie est la phase requise d’obtention de diverses représentations de ces systèmes pour une meilleure compréhension de leurs buts / états.L’Ingénierie Dirigée par les Modèles (IDM) est un paradigme du Génie Logiciel reposant sur la création, manipulation et utilisation intensive de modèles dans les tâches de conception, développement, déploiement, intégration, maintenance et évolution. La Rétro-Ingénierie Dirigée par les Modèles (RIDM) a été proposée afin d’améliorer les approches de Rétro-Ingénierie traditionnelles. Elle vise à obtenir des modèles à partir d’un système existant, puis à les fédérer via des vues cohérentes pour une meilleure compréhension.Cependant, les solutions existantes sont limitées car étant souvent des intégrations spécifiques d’outils. Elles peuvent aussi être (très) hétérogènes, entravant ainsi leurs déploiements. Il manque donc de solutions pour que la RIDM puisse être combinée avec des capacités de vue / fédération de modèles.Dans cette thèse, nous proposons deux approches complémentaires, génériques et extensibles basées sur les modèles ainsi que leurs implémentations en open source basées sur Eclipse-EMF : (i) Pour faciliter l’élaboration de solutions de RIDM dans des contextes variés, en obtenant différents types de modèles à partir de systèmes existants (e.g. leurs codes source, données). (ii) Pour spécifier, construire et manipuler des vues fédérant différents modèles (e.g. résultant de la RIDM) selon des objectifs de compréhension (e.g. pour diverses parties prenantes)<br>Nowadays, companies face more and more the problem of managing, maintaining, evolving or replacing their existing software systems. Reverse Engineering is the required phase of obtaining various representations of these systems to provide a better comprehension of their purposes / states.Model Driven Engineering (MDE) is a Software Engineering paradigm relying on intensive model creation, manipulation and use within design, development, deployment, integration, maintenance and evolution tasks. Model Driven Reverse Engineering (MDRE) has been proposed to enhance traditional Reverse Engineering approaches via the application of MDE. It aims at obtaining models from an existing system according to various aspects, and then possibly federating them via coherent views for further comprehension.However, existing solutions are limited as they quite often rely on case-specific integrations of different tools. Moreover, they can sometimes be (very) heterogeneous which may hinder their practical deployments. Generic and extensible solutions are still missing for MDRE to be combined with model view / federation capabilities.In this thesis, we propose to rely on two complementary, generic and extensible model-based approaches and their Eclipse/EMF-based implementations in open source: (i) To facilitate the elaboration of MDRE solutions in many different contexts, by obtaining different kinds of models from existing systems (e.g. their source code, data). (ii) To specify, build and manipulate views federating different models (e.g. resulting from MDRE) according to comprehension objectives (e.g. for different stakeholders)
APA, Harvard, Vancouver, ISO, and other styles
36

Espinoza, Ortiz Huascar. "Une Approche Intégrée, Dirigée par les Modèles, pour la Spécification et l’Analyse des Propriétés Non-Fonctionnelles des Systèmes Temps Réel." Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/interne/2007EVRY0016.pdfL.

Full text
Abstract:
Bien que présentant de nombreux avantages, l'Ingénierie Dirigée par les Modèles manque d’une part de mécanismes pour spécifier les aspects non-fonctionnels (par ex. Performance) des applications temps réel, et d’autre part de méthodologies pour intégrer des outils d’analyse non-fonctionnelle dans un processus global d'aide à la conception. En réponse à ces limitations, cette thèse propose trois extensions à UML (Unified Modeling Language): 1) une infrastructure générique pour spécifier précisément des propriétés non-fonctionnelles, 2) un profil spécialisé pour annoter des modèles de conception afin de permettre leur analyse d'ordonnançabilité, et 3) un ensemble de concepts génériques de haut-niveau pour composer des contextes d'analyse à partir de modules paramétrés. Des règles méthodologiques sont également proposées pour favoriser l’intégration de multiples techniques d'analyse afin d’évaluer des choix d’allocation et de configuration de ressources d’une manière globalement optimale<br>Despite the potential benefits of Model Driven Engineering in the real-time systems domain, there is a lack of suitable mechanisms for specifying non-functional aspects (e. G. Performance, reliability) as well as of efficient methodologies for integrating non-functional analysis techniques and tools in a global design decision process. To overcome these limitations, this thesis proposes a set of extensions to UML (Unified Modeling Language): 1) a generic framework for specifying accurate non-functional properties, 2) a specialized profile that allows annotating design models for enabling their schedulability analysis, and 3) a generic set of high-level constructs to compose complex analysis contexts from parameterized building blocks. Besides, we also define methodological guidelines and usage constraints that help users to integrate multiple analysis techniques in order to evaluate globally optimal resource selection, allocation and configuration
APA, Harvard, Vancouver, ISO, and other styles
37

Delotte, Olivier. "CoCSys : une approche basée sur la construction d'un modèle comportemental pour la conception de systèmes collaboratifs mobiles." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/odelotte.pdf.

Full text
Abstract:
Nos travaux s’inscrivent au croisement des domaines du Travail Collaboratif Assisté par Ordinateur (TCAO), de l’Interaction Humain-Machine (IHM) et du Génie Logiciel. Nos recherches concernent la prise en compte des exigences des utilisateurs, leur organisation sous forme d’un modèle comportemental puis sa projection sur une architecture collaborative. La mise en place de services collaboratifs pour des situations mobiles ainsi que la conception et l’adaptation des IHM (différents dispositifs et contextes) font partie de notre approche. Avec l’avènement des nouveaux modes de vie et de travail « mobiles », le vocable Travail Collaboratif Capillaire (TCC) est apparu pour exprimer cette irrigation de l’information vers des nouveaux dispositifs d’interaction. Il intègre les fondamentaux du travail collaboratif, c'est-à-dire les espaces de communication, de production et de coordination en ajoutant l’atteignabilité permanente via ces dispositifs miniaturisés et la prise en compte du contexte. Dans le cadre de cette thèse, nous avons travaillé sur un processus centré sur l’utilisateur pour la conception de systèmes collaboratifs mobiles appelé CoCSys. CoCSys est une démarche de conception de systèmes collaboratifs mobiles couvrant les phases d’expression des besoins, de conception, de validation et de mise en oeuvre sur une architecture collaborative. Ce processus est basé sur la formalisation des besoins des utilisateurs et l’identification de leurs objectifs en s’appuyant sur des scénarios pour prendre en compte différents contextes d’usage. Il s’appuie sur plusieurs modèles qui, par une approche MDA (Model Driven Architecture), se concrétise par des transformations des modèles en une application collaborative. Cette application s’intègre dans une architecture collaborative en 3 niveaux qui prend en compte les interfaces humain-machine adaptées en fonction du dispositif utilisé, des tâches à effectuer et des environnements des utilisateurs. Le but de CoCSys est de gérer le processus global assurant le passage de l’identification des besoins à la mise en oeuvre sur une architecture cible proposant différents dispositifs appropriés. CoCSys a nécessité la conception d’outils qui accompagnent les différentes phases du processus (conception des scénarios, construction du modèle comportemental de référence, transformations) qui ont été validés à travers un exemple concret de situation de dépannage dans le cadre du projet HelpMeToDo<br>Our work is an overlap of CSCW, CHI and Software Engineering Domains. We researched the various Requirements of Users, organized it in a Behavioural Model and finally demonstrated a Collaborative Architecture. Installation of collaborative services for mobile situations, the design and adaptation according to CHI (multiple devices and contexts of use) have been integrated in our approach. In line with the emergence of new age and varied working modes, the term “Capillary Collaborative Work” best expresses the irrigation of information to some interaction devices. CCW integrates foundations of CSCW (coordination, communication and production) through adding the persistent attainability via miniaturized devices and integrating context sensitive issues. In this thesis, we explicate a user-centred process for the conception of CCW systems named CoCSys (Collaborative Capillary Systems). CoCSys is a process that thoroughly covers different phases: express requirements, Design and validates model-based applications, implementation of a collaborative architecture. CoCSys is based on the definition of requirement and the identification of goals with respect to scenarios of use integrating the context of use. CoCSys implements multiple models through an MDA approach finalized by some transformations in the collaborative application. Computer human Interactions are adapted in regard to the devices used, the predicted task and the user’s environment. The goal of CoCSys is to management the global process from the requirements to the final architecture. CoCSys is assisted through two tools (CBME and KMDEg). This work has been validated by a concrete example in the HelpMeToDo Project
APA, Harvard, Vancouver, ISO, and other styles
38

Dahman, Karim. "Gouvernance et étude de l'impact du changement des processus métiers sur les architectures orientées services : une approche dirigée par les modèles." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00785771.

Full text
Abstract:
La plupart des entreprises évoluent dans des marchés concurrentiels en adaptant rapidement leurs processus métiers. Leur performance dépend de leur capacité à utiliser des techniques d'amélioration continue de leur organisation par la mise au point de Systèmes Informatiques (SI) durables pour l'automatisation des processus. En ce sens, les architectures orientées services (Service Oriented Architectures) ont permis le développement de SI flexibles avec un style d'architecture prédominant de composition de services. Cependant, l'alignement de ces architectures aux impératifs de l'évolution des processus reste une préoccupation centrale. Dans cette thèse, nous étudions la cartographie et l'évolution des processus métiers depuis leur conception jusqu'à leur automatisation dans une architecture orientée services ainsi que son adaptation. Nous proposons une approche d'ingénierie dirigée par les modèles intégrée à un outil de modélisation de processus et de développement d'architectures orientées services. Celle-ci débute par la spécification d'un modèle BPMN (Business Process Modeling Notation) décrivant les interactions des processus métiers. Grâce à une chaîne de transformation automatisée, nous produisons un modèle SCA (Service Component Architecture) décrivant une solution de composition de services. Ceci garantit la traçabilité architecturale entre le niveau métier du SI et son niveau technique puisque les services générés décrivent une {logique applicative} qui met en œuvre la logique métier du modèle BPMN. Ensuite, nous introduisons une méthode de propagation du changement de la logique métier vers la logique applicative qui est fondée sur la synchronisation incrémentale entre les modèles BPMN et SCA. Elle est intégrée à un outil d'analyse de l'impact du changement qui se base sur la réécriture de graphes pour éviter les inconsistances induites par les modifications. Enfin, elle permet de simuler l'impact des évolutions des processus, pour en estimer le coût selon les métriques que nous proposons, avant de procéder à la réingénierie de l'architecture orientée services pour assurer une meilleure gouvernance du changement.
APA, Harvard, Vancouver, ISO, and other styles
39

Graciano, Neto Valdemar Vicente. "Une approche dirigée par les simulations à base de modèles pour concevoir les architectures de systèmes-des-systèmes à logiciel prépondérant." Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS489/document.

Full text
Abstract:
Contexte : Les systèmes à logiciels prépondérants sont de plus en plus interopérables formant des alliances nommées « Systèmes-des-Systèmes » (SdS). Les applications des SdS peuvent aller des systèmes de gestion du trafic jusqu’aux systèmes de gestion de crises. Étant donné que les SdS supportent souvent des domaines critiques, ils doivent être fiables en traitant les disfonctionnements ou les défauts et en évitant les défaillances qui pourraient causer des dégâts et pertes importantes aux utilisateurs.Problème : Ajuster les opérations d’un SdS dépend d’une spécification précise et une attestation rigoureuse de sa consistance opérationnelle. Cependant, en plus des limitations des langages pour capturer conjointement la structure et le comportement des SdS, les prédictions de la consistance opérationnelle des SdS reposent sur leurs systèmes constitutifs qui ne sont pas totalement connus au moment de la conception. Par conséquent, les SdS ont été développés et déployés sans évaluation de leurs opérations, puisque les langages actuels ne supportent pas ce type de précision lors de l’évaluation. Objectif : Cette thèse fournit des solutions théoriques et pratiques basées sur un langage formel de description d’architectures pour supporter une évaluation précoce des opérations du SdS par rapport à la structure et le comportement du SdS à travers les simulations. Contributions : Les contributions essentielles de ce projet comprennent (i) une approche de transformation des modèles pour produire automatiquement des modèles de simulation à partir des descriptions des architectures logicielles du SdS, combinant la description structurelle et comportementale du SdS dans la même solution, (ii) une méthode d’évaluation de l’architecture logicielle du SdS pour la prédiction des opérations du SdS tout en considérant les changements inhérents qui peuvent se produire, (iii) la modélisation de l’environnement et la génération automatique des générateurs de stimulus pour soutenir la simulation des SdS, livrant des données pour nourrir tel simulation, et (iv) une méthode pour la synchronisation automatique entre l’architecture descriptive d’exécution (qui change à l’exécution par suite de l’architecture dynamique) et son architecture prescriptive d’origine basée sur des mécanismes de découverte et de récupération de modèles et une transformation de modèle à l'envers.Évaluation : Nous avons conduit des cas d’études pour évaluer nos approches en utilisant le SdS de surveillance des inondations et le SdS d’espace.Résultats : Notre approche montre une précision importante pour (i) produire des simulations des architectures logicielles des SdS sans failles et complètement opérationnelles, (ii) supporte une évaluation et une prédiction fiable des opérations du SdS à la phase de conception, (iii) génère de manière automatique des générateurs de stimuli pour soutenir et nourrir l’exécution de la simulation et (iv) maintien la synchronisation entre les versions descriptives et prescriptives de l’architecture du SdS.Conclusion : Nous avons conclu que les approches proposées font évoluer l’état de l’art de l’évaluation des architectures logicielles des SdS en offrant des solutions pour prédire l’efficacité des opérations du SdS pour maintenir une opération continue malgré les changements architecturaux, fournissant plus de confidence aux utilisateurs qui reposent dans l’avenir sur les services du SdS<br>Context: Software-intensive systems have been increasingly interoperated forming alliances termed as “Systems-of-Systems” (SoS). SoS comprises a collection of systems joined to achieve a set of missions that none of the systems can individually accomplish. Each constituent system keeps its own management, goals, and resources while coordinating within the SoS and adapting to meet SoS goals. Applications of SoS range from traffic control to emergency response and crisis management. As SoS often support critical domains, such systems must be trustworthy by dealing with malfunction or defects and avoiding failures that could cause extensive damage and losses to the users.Problem: Correct SoS operations depend on a precise specification of the SoS structure and a rigorous attestation of its behaviors. However, besides limitations on languages to jointly capture SoS structure and behavior, predictions on the SoS emergent behaviors rely on constituent systems not totally known at design-time. Therefore, SoS have been developed and deployed without evaluating their operation, since current languages do not support such precision in evaluation.Objectives: This PhD project provides solutions founded on a formal architectural description language to support an early evaluation of SoS behaviors regarding its inherent SoS structure and dynamics through simulations.Contribution: The main contributions of this project comprise (i) a model transformation approach for automatically producing simulation models from SoS software architecture descriptions, combining SoS structure and behavior description in a same solution, (ii) a SoS software architecture evaluation method for SoS operation prediction considering the inherent changes that can occur, (iii) environment modeling and automatic generation of stimuli generators to sustain the SoS simulation, delivering data to feed such simulation, and (iv) a method for the automatic synchronization between the runtime descriptive architecture (changed at runtime due to dynamic architecture) and its original prescriptive architecture based on model discovery and recovery mechanisms and a backward model transformation.Evaluation: We conducted case studies to assess our approaches using Flood Monitoring SoS and Space SoS.Results: Our approaches show a high accuracy to (i) produce fault-free and operational simulations for SoS software architectures, (ii) support a reliable evaluation and prediction of SoS operation at design-time, (iii) automatically generate stimuli generators to sustain and feed the simulation execution, and (iv) maintain the synchronization between descriptive and prescriptive versions of the SoS architecture.Conclusions: We concluded that the proposed approaches advance the state of the art in SoS software architecture evaluation by offering solutions to predict the SoS operations effectiveness to maintain a continuous operation despite architectural changes, providing more trust for users that in the future shall rely on SoS services
APA, Harvard, Vancouver, ISO, and other styles
40

Bougaa, Mohammed. "Une approche basée sur les processus et dirigée par les compétences pour l'éducation en ingenierie des systèmes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC050/document.

Full text
Abstract:
Au cours de cette thèse, nous avons examinée les pratiques actuelles en matière d'éducation en IS. Nous avons proposé une approche centrée sur l'utilisation des processus normalisés en IS, tout en faisant en sorte que le scénario d'apprentissage soit très adaptable et qu'il puisse être piloté par les compétences d'IS acquises ou à acquérir. Ensuite, une plateforme Web a été développée pour soutenir cette nouvelle approche d'apprentissage. En utilisant cette approche, les étudiants ne seront pas seulement en mesure de bien concevoir le système demandé de manière distante et collaborative, mais ils seront aussi capables de l'élaborer de manière appropriée. Cela leur permettra d'apprendre les principes et processus fondamentaux de l'IS, à mieux communiquer dans un environement de travail, la gestion d'équipe, la collaboration et les compétences techniques connexes. Les formateurs d'un autre côté pourront mieux gérer leur parcours d'apprentissage, les ressources pédagogiques, et les résultats escomptés. En utilisant cette solution, les organisations de ces formateurs et étudiants, c'est-à-dire les universités et collèges, pourront gérer et normaliser les compétences acquises par leurs futurs ingénieurs systèmes à tous les niveaux<br>This thesis surveys the current practices and advancements in SE education. We ended up proposing a novel solution for SE education (an approach with its supporting web-based platform). The proposed approach is based on the recommendations of academic and industrial communities. It is centered around the use of SE standardized processes and at the same time very adaptive, with learning scenarios that can be driven by the acquired or to-be-taught SE competencies. The proposed solution is a web based platform that has been developed to support this novel approach within a distant Project Based Learning (PBL) environment. The solution aims to ease the learning at the same time of fundamental principles and processes of systems engineering, along with communication, team management, collaboration, and related soft skills. On the other hand, educators will be able to better manage their learning scenarios, training resources, and the expected outcomes. Last, educators and students' organizations using this solution will be able to manage and normalize the competencies to be acquired by their future systems engineers at every level
APA, Harvard, Vancouver, ISO, and other styles
41

Sirgabsou, Yandika. "Proposition d’une approche dirigée par les modèles pour la sûreté de fonctionnement logicielle - Application à l'architecture logicielle des véhicules connectés et autonomes." Electronic Thesis or Diss., Toulouse, INSA, 2023. http://www.theses.fr/2023ISAT0062.

Full text
Abstract:
Dans le contexte du développement de logiciels automobiles, le problème général qui a motivé ce travail était la complexité croissante des architectures logicielles et les limites des pratiques actuelles en termes d’analyses de sécurité. Malgré le développement du MBSE (Model Based Systems Engineering), ces pratiques sont toujours caractérisées par le recours à des techniques manuelles traditionnelles d’analyse de la sécurité telles que l’analyse par arbre de défaillance (FTA) ou l’analyse des modes de défaillance et de leurs effets (AMDE). Bien qu’elles soient toujours utiles, ces techniques sont insuffisantes face à la complexité avec la possibilité d’aboutir à des analyses subjectives, inefficaces, de mauvaise qualité et sujettes aux erreurs. Par conséquent, pour améliorer l’état de la pratique actuelle dans le contexte automobile, notre proposition est d’appliquer l’approche d’analyse de la sécurité basée sur un modèle (MBSA) qui est une approche d’ingénierie pilotée par modèle pertinente appliquée à la sécurité. Toutefois, l’examen de l’état actuel de la technique des approches actuelles des MBSA suggère que la plupart de ces approches sont axées sur les systèmes et manquent d’un soutien méthodologique clair. En outre, certaines des approches MBSA (en particulier celles qui reposent sur un modèle dédié) nécessitent une compréhension approfondie (en termes de paradigme de modélisation) et peuvent être difficiles à mettre en œuvre dans le cas de systèmes complexes (limites de la modélisation manuelle). De même, dans les pratiques actuelles, l’analyse de la sécurité au niveau logiciel souffre d’une mauvaise intégration avec le processus de développement logiciel, ce qui peut entraîner des analyses de sécurité incohérentes. Pour résoudre ces problèmes, l’essence de notre contribution est de fournir une méthodologie qui adapte les concepts, les principes et les méthodes de MBSA dans le but d’améliorer la pratique de l’analyse de la sécurité des logiciels, en tenant compte de l’état actuel des pratiques (dans le processus de développement de logiciels existant).Notre première contribution consiste en une méthodologie couvrant toutes les étapes nécessaires pour effectuer une analyse de la sécurité sur les architectures logicielles automobiles en utilisant l’approche basée sur des modèles tout en répondant aux défis présentés par le manque d’intrants inadéquats apportés par l’utilisation d’artefacts centrés sur les documents dans certaines parties du processus de génie logiciel. Grâce à cette contribution, nous proposons une méthodologie étape par étape pour définir le contexte d’analyse de la sûreté, construire l’architecture dysfonctionnelle et l’utiliser pour des analyses de sûreté s’appuyant sur une approche modèle dédiée.La deuxième proposition, également méthodologique, vise à relever certains défis liés à la complexité due aux limites d’une approche modèle dédiée. Elle consiste à utiliser des modèles de pannes logicielles basés sur des modèles de pannes logicielles ISO 26262 pour faciliter la construction du modèle dysfonctionnel. Grâce à cette proposition, des prototypes de modèles de défaillance logicielle courants sont développés et réutilisés pour construire le modèle dysfonctionnel.La troisième contribution, encore en cours de développement, est une proposition d’outillage visant à automatiser partiellement et à faciliter la construction du comportement et de la propagation des défauts des composants logiciels par traduction logique fonctionnelle à dysfonctionnelle. Il vise à assurer une meilleure cohérence des analyses de sécurité logicielle avec le processus de développement logiciel en permanence avec les recommandations ISO 26262<br>In the context of automotive software development, the general problem that motivated this work was the growing complexity of software architectures and the limitations of the current practices in terms of safety analyses. Despite the development of MBSE (Model Based Systems Engineering), these practices are still characterized by the reliance on manual traditional safety analysis techniques such as Fault Tree Analysis (FTA) or Failure Modes and Effect Analysis (FMEA). Although still useful, these techniques fall short when faced with complexity with the possibility of resulting in subjective, inefficient, poor quality and error-prone analyses. Hence, to improve the state of the current practice in the automotive context, our proposal is to apply the Model Based Safety Analysis (MBSA) approach that is a relevant Model Driven Engineering approach applied to safety. However, the review of the current state of the art of current MBSA approaches suggests that most of these approaches are systems oriented and lack clear methodological support. In addition, some of the MBSA approaches (especially those relying on a dedicated model) require deep understanding (in terms of modeling paradigm) and can be challenging to implement in the case of complex systems (limitations of manual modeling). Also in current practices, safety analysis at software level suffers of poor integration with the software development process, which can result in inconsistent safety analyses. To address these issues, the essence of our contribution is to provide a methodology that adapts the concepts, principles, and methods of MBSA for the purpose of improving the practice of software safety analysis, taking into consideration the current state of practices (in the existing software development process).Our first contribution consists of a methodology covering all the steps required to perform safety analysis on automotive software architectures using the model-based approach while addressing the challenges presented by the lack of inadequate inputs brought by the use of document-centric artifact in some parts of the software engineering process. Through this contribution, we propose a step-by-step methodology for defining the safety analysis context, constructing the dysfunctional architecture, and using it for safety analyses relying on a dedicated model approach.The second proposal, also methodological, aims to address some challenges related to complexity brought by the limitations of a dedicated model approach. It consists of using software fault patterns based on ISO 26262 software fault templates to ease the construction of the dysfunctional model. Through this proposal, prototypes of common software fault patterns are developed and reused to build the dysfunctional model.The third contribution, still undergoing development, is a tooling proposal to partially automated and ease the construction of software component’s fault behavior and propagation through functional to dysfunctional logic translation. It aims to ensure a better consistency of software safety analyses with the software development process constantly with ISO 26262 recommendations
APA, Harvard, Vancouver, ISO, and other styles
42

Frizon, de Lamotte Florent. "Proposition d'une approche haut niveau pour la conception, l'analyse et l'implantation des systèmes reconfigurables." Lorient, 2006. http://www.theses.fr/2006LORIS073.

Full text
Abstract:
La qualité de service attendue pour les systèmes de production et les systèmes électroniques, rend incontournable l'utilisation de la reconfiguration qui permet d'organiser le système au mieux pour répondre à l'objectif fixé. L'exploitation du caractère reconfigurable d'un tel système nécessite une prise en compte de cette capacité de la conception à l'implantation. La phase de conception repose sur une description du système reconfigurable selon deux axes. Le premier sépare l'architecture du système de ses configurations. Le second distingue la partie logique, décrivant les traitements à réaliser et la partie physique décrivant les ressources constituant le système. Une fois l'architecture et les configurations décrites, des analyses permettent au concepteur d'évaluer l'architecture ou les configurations en terme de performances, de tolérance aux pannes ou de coût. Ces analyses peuvent aussi intervenir pour guider la stratégie de reconfiguration au cours du fonctionnement du système. Elles font appel à des outils d'ingénierie dirigée par les modèles permettant d'obtenir automatiquement les modèles d'analyse à partir de la description du système. Un cadre d'implantation, utilisant également l'ingénierie dirigée par les modèles, est proposé pour la génération d'un code de contrôle/commande à partir de la description de haut niveau. Toute l'approche a été déployée sur une application réelle développée au cours des travaux de thèse et présentée dans ce document<br>The expected quality of service of manufacturing or electronic systems makes reconfiguration capabilities essential. Reconfiguration consists in a reorganization of the system to better comply with a given objective. To fully take advantage of all the reconfiguration capabilities of the system, designers need to take them into account throughout the whole development process. The design phase is performed on a description of the reconfigurable system, which is split along two axes. The first axis separates the system's architecture from its configuration. The second one separates the logical part of the system describing the processes from the physical part of the system that describes its resources. Once the system has been described, analyses help designers in the evaluation of its performances, breakdown tolerance and cost. Analyses can also be used for leading the reconfiguration strategy. They make use of model engineering techniques, which enable automatic transformations from the description model to analysis models. An implementation framework, which also uses model engineering is described for the control-command code generation from the high-level description. The whole approach has been tested on a real platform built during the thesis
APA, Harvard, Vancouver, ISO, and other styles
43

Phalipou, Sylvie. "Etude des sites de liaison des antagonistes peptidiques linéaires du récepteur V1a de la vasopressine par une approche de marquage covalent et de mutagénèse dirigée." Montpellier 2, 1998. http://www.theses.fr/1998MON20130.

Full text
Abstract:
Ce travail a pour objectif d'etudier le site de liaison des antagonistes du recepteur v#1#a humain de la vasopressine. Nous avons cartographie les zones d'interaction des antagonistes peptidiques lineaires avec le recepteur v#1#a de facon directe par la technique de marquage de photoaffinite. Nous avons developpe, caracterise pharmacologiquement et fonctionnellement deux analogues photoactivables de l'avp : le #1#2#5i3n#3phpa-lva et le #1#2#5ilys(3n#3phpa)#8ho-lva. Les recepteurs v#1#a exprimes dans les cellules cho sont photomarques de facon specifique par ces ligands et sont observes sur gel sds-polyacrylamide sous la forme de deux proteines glycosylees radioactives de 85-90 kda et 46 kda. Celle de 46 kda resulte du clivage de la proteine de 85-90 kda par une protease presente dans la preparation membranaire des cellules. Afin de delimiter les zones de contact entre le recepteur et ses ligands, l'espece proteique de 46 kda photomarquee par le #1#2#5i3n#3phpa-lva a ete fragmentee par les proteases v8 et/ou lys-c. L'identite du plus petit fragment photomarque (poids moleculaire de 6 kda) issu de la digestion par la protease v8, a ete verifiee par mutation des sites de clivage de l'enzyme. Nous avons conclu que le #1#2#5i3n#3phpa-lva se lie de facon covalente au recepteur v#1#a humain dans la region du septieme domaine transmembranaire (asn#3#2#7ile#3#4#7). De meme, la proteine de 46 kda photomarquee par le #1#2#5ilys(3n#3phpa)#8ho-lva a ete fragmentee chimiquement (bromure de cyanogene) et/ou enzymatiquement (proteases lys-c et asp-n). Le plus petit fragment photomarque a un poids moleculaire de 2,5 kda et represente la premiere boucle extracellulaire du recepteur (asp#1#1#2pro#1#2#0). A l'aide de ces resultats, nous proposons un modele d'interaction de ces ligands avec le recepteur v#1#a humain. Le positionnement des deux ligands dans la poche de liaison du recepteur est similaire a celui de l'avp, ces ligands lineaires adoptant le meme type de conformation que les ligands cycliques.
APA, Harvard, Vancouver, ISO, and other styles
44

Rebout, Maxime. "Une approche catégorique unifiée pour la réécriture de graphes attribués." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/306/.

Full text
Abstract:
En génie logiciel, les méthodes modernes de développement (ex. Le MDA) s'appuient de manière cruciale sur les notions de modélisation et de transformation. Ces méthodes peuvent s'interpréter à l'aide de la théorie des graphes. La difficulté théorique réside aujourd'hui dans l'ajout sur ces graphes de données supplémentaires sur lesquelles il est nécessaire de pouvoir effectuer des calculs. Notre travail s'est focalisé sur le développement d'un cadre mathématique sûr afin d'appliquer ces transformations. Les théories des catégories (à travers le double pushout) et des types inductifs (fonctions de calcul très expressives) nous ont permis de donner une solution unifiée à ce problème dans laquelle une seule opération permet de travailler sur la structure et de calculer avec les attributs en définissant des fonctions entre graphes possédant une partie contravariante pour le travail des attributs. De plus, les propriétés usuelles des systèmes de réécriture sont vérifiées<br>Due to the new requirements of modern software, researchers in software engineering have created more efficient development methods based on the concept of modeling (for example, the MDA) to control every stage of development. From a theoretical point of view, these methods are based on graphs and graph transformations. The theoretical difficulty lies in adding on these graphs data on which it must be possible to do computations. Our work has focused on developing a mathematical framework to implement these changes. The theories of categories (through the double pushout) and inductive types (very expressive computation functions) allowed us to provide a unified solution to this problem in which a single operation can transform the structure and compute with the attributes. In addition, the usual properties of rewriting systems are checked
APA, Harvard, Vancouver, ISO, and other styles
45

Sannier, Nicolas. "INCREMENT : une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûreté." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00941881.

Full text
Abstract:
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d'exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu.
APA, Harvard, Vancouver, ISO, and other styles
46

Caffiau, Sybille. "Approche dirigée par les modèles pour la conception et la validation des applications interactives : une démarche basée sur la modélisation des tâches." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. http://tel.archives-ouvertes.fr/tel-00461497.

Full text
Abstract:
Actuellement, les applications interactives sont utilisées dans de nombreux domaines (guichets automatiques, tours de contrôle...), par des publics très différents (enfants, experts, handicapés...) et par un nombre important d'utilisateurs (interfaces de téléphones portables...) ou au contraire très spécifiques (logiciels conçus spécifiquement pour une entreprise). Elles sont de ce fait très diverses. De par la multiplicité des paramètres à prendre en compte, la conception et le développement des applications interactives sont devenus très coûteux. Afin de réduire ces coûts, des recherches sont actuellement menées sur le processus de conception. Cette thèse s'inscrit dans ces travaux. L'un des axes étudiés pour réduire le coût de production des applications interactives est la détection des erreurs le plus en amont possible pendant le processus de conception. Nous proposons de faciliter la vérification et la validation de la dynamique des applications (plus spécifiquement dénommée dialogue) tout au long de la conception, en fonction des spécifications recueillies auprès des futurs utilisateurs, exprimés sous forme de modèles de tâches. Les modèles de dialogue et les modèles de tâches représentent deux points de vue différents et complémentaires pour une même application. Nous proposons une approche de vérification de cohérence entre ces deux modèles tout au long du cycle de vie de l'application. Pour cela, nous avons défini des règles de cohérence entre les modèles que nous vérifions formellement en utilisant une méta-modélisation des formalismes que nous avons choisis après évaluation de leur utilisation pour une conception centrée-utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
47

Constant, Olivier. "Une approche dirigée par les modèles pour l'intégration de la simulation de performance dans la conception de systèmes à base de composants." Pau, 2006. http://www.theses.fr/2006PAUU3013.

Full text
Abstract:
Pour être maîtrisée, la performance d'un système distribué doit être prise en compte tout au long du cycle de conception et développement du système, particulièrement si ce dernier est construit à base de composants réutilisés car il est alors plus difficilement prévisible. Mais l'évaluation de performance en conception nécessite des techniques spécifiques et des compétences peu courantes. Une solution consiste à étendre les langages de conception fonctionnelle de manière à transformer les modèles fonctionnels en modèles de performance du système. Cette thèse propose une approche rigoureuse, basée sur des techniques d'ingénierie des modèles ou MDE (Model-Driven Engineering), pour des transformations automatiques de modèles UML 2. 0 de systèmes à base de composants vers des modèles de simulation de performance à files d'attente. Un cadre conceptuel précis est d'abord défini par métamodélisation pour des modèles conçus à base de composants, exécutables et exploitant la puissance de la simulation. Le métamodèle, appelé CPM (Component Performance Metamodel), sert ensuite de support à la définition d'un profil pour UML 2. 0. Le profil est structuré en couches regroupant des fonctions et contraintes OCL (Object Constraint Language) ainsi que des extensions. Pour résoudre les ambiguïtés sémantiques d'UML 2. 0, le métamodèle des Diagrammes de Séquence est restreint à un sous-ensemble cohérent proche du langage MSC (Message Sequence Charts) puis muni de la sémantique formelle des MSC. L'exécutabilité est alors traitée par des restrictions qui permettent de définir des fonctions OCL de pilotage des transformations en fonction de la sémantique des modèles. Les modèles de performance générés sont exécutables par un simulateur de performance industriel<br>Predicting the performance of distributed systems is an issue that must be taken into account during the whole design and development process. This is especially true for systems that are built out of reused components since these systems are more difficult to predict. Nevertheless, evaluating the performance of a system at the design phase requires specific techniques and skills. A solution consists in extending classical design languages to allow transformation of design models into specific performance models. This thesis proposes a rigorous approach, based on MDE (Model-Driven Engineering) techniques, for the automatic transformation of UML 2. 0 models of component-based systems into queueing network models for performance simulation. A metamodel is first defined to provide a precise conceptual framework for component-based executable models exploiting the expressivity of simulation languages. The metamodel, called CPM (Component Performance Metamodel), is then used to define a profile for UML 2. 0. The profile is structured into several layers that group extensions and OCL (Object Constraint Language) queries and constraints. In order to solve the semantic ambiguities of UML, the metamodel of UML 2. 0 Sequence Diagrams is restricted to a subset close to the MSC (Message Sequence Charts) language. Using the formal semantics of MSC, the problem of model executability is tackled by additional constraints allowing to define OCL queries that can drive transformations on the basis of the semantics of the models. The generated performance models can be executed by an industrial performance simulator
APA, Harvard, Vancouver, ISO, and other styles
48

Zhu, Min. "Simulation de systèmes à structure dynamique dans une approche d'ingénierie système basée modèles appliquée au matériel reconfigurable." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30191.

Full text
Abstract:
Avec l'évolution des techniques de reconfiguration partielle pour les systèmes embarqués, le besoin d'un modèle de description capable de représenter ces comportements émerge. La plupart des outils disponibles sur le marché, tant académiques qu'industriels, ne prennent pas en compte la modélisation des systèmes à structure dynamique. L'émergence de la modélisation à évènements discrets, notamment Discrete Event System Specification (DEVS), propose des outils formels pour représenter et simuler des modèles. DEVS propose déjà des extensions capable de prendre en compte la modélisation à structure dynamique. Néanmoins, les possibilités offertes par ces extensions rencontrent certaines limites. En particulier, elles ne proposent pas de moyen de gérer l'aspect contexte des composants. De plus, les formalismes existants n'ont pas intégré l'approche ingénierie système. L'ingénierie système met en place des procédures intéressantes, notamment l'architecture dirigée par les modèles, qui propose de séparer la description du système de sa plateforme d'exécution. Un modèle spécifique à une plateforme est ainsi la résultante d'un modèle de description de la plateforme combiné avec un modèle d'application indépendant de toute plateforme. Pour répondre à ces besoins, nous proposons un formalisme de description de modèles prenant en compte ces deux aspects : la modélisation à structure dynamique, et l'ingénierie système. Ce formalisme est basé sur DEVS, et nommé Partially Reconfigurable Discrete Event System Specification (PRDEVS). PRDEVS permet de représenter les modèles à structure dynamique indépendamment de la plateforme de simulation. L'approche présentée peut être appliquée à différents types de cibles, tels le logiciel et le matériel reconfigurable. Cette thèse présente des mises en oeuvre du formalisme abstrait sur ces deux types de plateformes, démontrant ainsi sa capacité à être déployé sur des plateformes réelles<br>As partially reconfigurable technologies develop for embedded systems, the need for a proper model to describe its behavior emerges. Most academic and industrial tools available on the market does not address dynamic structure modeling. The arising of discrete-event modeling, in particular, Discrete Event System Specification (DEVS), propose formal tools for representing and simulating models. DEVS has already extension which handles the dynamic structure modeling. However, the capacities of these existing formalism have limitations. Notably, they do not address the components context aspect. Also, the existing formalisms have not integrated the system engineering approach. System engineering brings beneficial procedures, notably modeldriven architecture which proposes to separate the system description from its execution target. A platform-specific model is formed from a platformdescription model coupled with a platform independent model. To address these needs, we propose a model description formalism which takes into consideration these two aspects: dynamic structure modeling and system engineering. This formalism is based on DEVS and called Partially Reconfigurable Discrete Event System Specification (PRDEVS). PRDEVS allows to represent dynamic-structure models independently from the simulation platform. The presented approach can be applied to different types of targets, such as software and reconfigurable hardware. This thesis addresses these two kinds of platforms, demonstrating the suitability of the abstract formalism to actual platforms
APA, Harvard, Vancouver, ISO, and other styles
49

Moalla, Néjib. "Amélioration de la qualité des données du produit dans le contexte du cycle de vie d’un vaccin : une approche d’interopérabilité dirigée par les modèles." Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/moalla_n.

Full text
Abstract:
Dans la quête de l'excellence industrielle, la qualité des données est un des piliers essentiels à prendre en considération dans toute approche d'amélioration ou d'optimisation. Ainsi, la qualité des données est un besoin primordial pour s'assurer que le produit répond aux besoins du client. Dans l'industrie pharmaceutique et plus particulièrement, dans l'industrie des vaccins, la définition du produit est très complexe vu sa structure moléculaire. La qualité des données s'avère une priorité face à la multitude des définitions du produit (biologique, pharmaceutique, industrielle, etc. ) et surtout face à l'ensemble des restrictions et des recommandations réglementaires imposées par les autorités de santés clientes. Dans ce contexte, et devant la multitude des métiers et des systèmes d'information supports, le besoin d'assurer l'interopérabilité entre ces systèmes hétérogènes permettra de prendre en considération les spécifications des différents métiers lors des échanges de données. Le déploiement d'une architecture dirigée par les modèles permettra de transformer une description fonctionnelle des différents processus vers des modèles de données exprimés dans différentes plateformes. Dans le périmètre logistique de l'industrie des vaccins, nous nous intéressons à assurer la qualité de quelques données critiques dans notre ERP par le déploiement des concepts d'nteropérabilité dirigée par les modèles. La définition de niveaux de référentiels nous permettra de structurer les modèles ainsi générés pour les partager avec l'ensemble des acteurs de notre périmètre logistique. A long terme, notre approche vise à réduire le coût du produit<br>To reach the industrial excellence, data quality is one of the essential pillars to handle in any improvement or optimization approach. Thus, data quality is a paramount need to ensure that the product meets the customer requirements. In the drug company and more particularly, in the vaccine industry, the definition of vaccine product is very complex considering its molecular structure. Data quality proves to be a priority according to many product definitions (biological, pharmaceutical, industrial, etc) and especially face to a lot of restrictions and regulatory recommendations imposed by customers as health authorities. In this context, and in front of the multitude of business activities supported by disconnected information systems, the need to ensure interoperability between these heterogeneous systems will make it possible to handle the specifications of various business scope during the exchanges of information. The deployment of model driven architecture will enable to transform a functional description of processes towards data models expressed in various platforms. In the logistic perimeter of the vaccines industry, we are interested to ensure the quality of some critical data in our ERP by the deployment of the concepts of model driven interoperability. The definition of various levels of reference frames will enable us to structure the models thus generated to share them with logistic perimeter actors. In the long run, our approach aims at reducing the cost of the product
APA, Harvard, Vancouver, ISO, and other styles
50

Clavreul, Mickaël. "Composition de modèles et de métamodèles : séparation des correspondances et desinterprétations pour unifier les approches de composition existantes." Rennes 1, 2011. https://tel.archives-ouvertes.fr/tel-00646893.

Full text
Abstract:
Model-Driven Engineering (MDE) is a software development methodology that relies on the Separation ofConcerns (SoC) and Abstraction principles to deal with complexity. Thinking in terms of higher levels ofabstraction and building dedicated models to address specific concerns allow decomposing a problem intomore manageable subproblems. Within the framework of MDE, model composition is an active field of research that focuses onautomating the composition of model-based artifacts in a multi-modeling environment. However the lackof a common formalism for comparing existing approaches hinders their adaptation and reuse for buildingnew model composition techniques. The main contribution of this thesis is to propose a novel definition of model composition as a pair of amapping and an interpretation. This definition paves the way to a theoretical framework that (1) unifiesexisting representations of model composition techniques and (2) automates the process of building modelcomposition tools. The main contribution is supported by two subsidiaries propositions:- We propose categories to classify existing mapping techniques and existing modelcomposition interpretations. - We define a language that supports the definition of generic mappings among models andthe definition of interpretations. We validate the contribution through two experiments: (1) a systematic literature review validates theproposed categories for mappings and interpretations; (2) a prototype that supports the model compositionapproach has been tested on an industrial case study from Technicolor about the composition of legacyAPIs for the management of heterogeneous video and broadcasting equipments<br>L'Ingénierie Dirigée par les Modèles (IDM) est basée sur le principe d’abstraction et de séparation despréoccupations pour gérer la complexité du développement de logiciels. Les ingénieurs s’appuient sur desmodèles dédiées à la résolution d’un problème particulier. Dans le cadre de l’IDM, la composition de modèles est un domaine de recherche très actif qui vise àautomatiser les tâches de recomposition des modèles. La quasi-inexistence de consensus pour comparer lestechniques existantes entraîne une explosion de l’effort nécessaire pour produire de nouveaux outilsspécifiques à partir de techniques existantes. La contribution principale de cette thèse est de proposer une définition originale de la composition demodèles comme étant une paire correspondance-interprétation. A partir de cette définition, nousproposons un cadre théorique qui (1) unifie les représentations des techniques de composition existanteset qui (2) automatise le développement d’outils de composition de modèles. La contribution principale s'appuie sur deux sous-contributions supplémentaires :- Nous proposons des catégories pour classer les techniques de correspondance et lesinterprétations existantes. - Nous proposons un langage de modélisation spécifique pour la définition decorrespondances génériques entre modèles et la définition d’interprétations. Un prototype logiciel a été développé et utilisé dans le cadre du projet MOPCOM-I du pôle decompétitivité Images &amp; Réseaux de la région Bretagne. La validation de la contribution a été démontréesur un cas d’étude proposé par Technicolor pour l’intégration de librairies existantes dédiées à la gestiond’équipements numériques de diffusion vidéo
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography