Dissertations / Theses on the topic 'Assistant logiciel'

To see the other types of publications on this topic, follow the link: Assistant logiciel.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Assistant logiciel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

BIENVENU, OLIVIER. "Conception d'un assistant pour un logiciel d'elements finis dedie aux calculs de champs electromagnetiques." Paris 6, 1998. http://www.theses.fr/1998PA066033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd'hui, les logiciels de simulation sont devenus de plus en plus performants. Notamment, la methode des elements finis est de plus en plus utilisee pour determiner les caracteristiques ou bien encore pour optimiser un systeme. Cependant l'emploi de cette methode necessite des connaissances et de l'experience dans le domaine des techniques numeriques et de la physique du probleme traite. Afin de faciliter l'acces a la methode des elements finis, il a ete entrepris de realiser un logiciel d'aide aux utilisateurs. Apres avoir etudier differentes methodes, le choix s'est porte sur un assistant. En effet l'assistant logiciel est une methode de prise de decision qui s'adapte tres bien a un logiciel qui utilise la methode des elements finis. Pour que la mise en uvre de l'assistant soit complete, il a ete necessaire de developper un logiciel d'elements finis. Celui-ci comporte tous les outils necessaires a la realisation d'un calcul par la methode des elements finis : un pre-processeur, un mailleur, un code de calcul genere dynamiquement et un post-processeur. Le fonctionnement de l'assistant repose sur l'exploitation d'un fichier contenant des questions liees entres elles. La liaison entre les questions se fait grace a la reponse fourni par l'utilisateur. Les reponses sont donnees dans le fichier d'assistance. Afin d'agir sur le logiciel d'elements finis, des actions sont memorisees en meme temps que la reponse est donnee. A la fin de la session d'expertise, l'ensemble des actions sont appliquees pour que l'utilisateur puisse obtenir le resultat attendu. En conclusion, l'utilisation d'un logiciel d'assistance est tout a fait satisfaisante lorsqu'il s'agit d'aider a prendre des decisions pour l'exploitation correcte d'un logiciel d'elements finis. De plus l'emploi d'un fichier permet une evolution aisee de l'assistant lors de l'ajout de nouvelles fonctionnalites au programme d'elements finis.
2

Zimmermann, Théo. "Challenges in the collaborative evolution of a proof language and its ecosystem." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7163.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, je présente l'application de méthodes et de connaissances en génie logiciel au développement, à la maintenance et à l'évolution de Coq —un assistant de preuve interactif basé sur la théorie des types— et de son écosystème de paquets. Coq est développé chez Inria depuis 1984, mais sa base d’utilisateurs n’a cessé de s’agrandir, ce qui suscite désormais une attention renforcée quant à sa maintenabilité et à la participation de contributeurs externes à son évolution et à celle de son écosystème de plugins et de bibliothèques.D'importants changements ont eu lieu ces dernières années dans les processus de développement de Coq, dont j'ai été à la fois un témoin et un acteur (adoption de GitHub en tant que plate-forme de développement, tout d'abord pour son mécanisme de pull request, puis pour son système de tickets, adoption de l'intégration continue, passage à des cycles de sortie de nouvelles versions plus courts, implication accrue de contributeurs externes dans les processus de développement et de maintenance open source). Les contributions de cette thèse incluent une description historique de ces changements, le raffinement des processus existants et la conception de nouveaux processus, la conception et la mise en œuvre de nouveaux outils facilitant l’application de ces processus, et la validation de ces changements par le biais d’évaluations empiriques rigoureuses.L'implication de contributeurs externes est également très utile au niveau de l'écosystème de paquets. Cette thèse contient en outre une analyse des méthodes de distribution de paquets et du problème spécifique de la maintenance à long terme des paquets ayant un seul responsable
In this thesis, I present the application of software engineering methods and knowledge to the development, maintenance, and evolution of Coq —an interactive proof assistant based on type theory— and its package ecosystem. Coq has been developed at Inria since 1984, but has only more recently seen a surge in its user base, which leads to much stronger concerns about its maintainability, and the involvement of external contributors in the evolution of both Coq, and its ecosystem of plugins and libraries.Recent years have seen important changes in the development processes of Coq, of which I have been a witness and an actor (adoption of GitHub as a development platform, first for its pull request mechanism, then for its bug tracker, adoption of continuous integration, switch to shorter release cycles, increased involvement of external contributors in the open source development and maintenance process). The contributions of this thesis include a historical description of these changes, the refinement of existing processes, and the design of new ones, the design and implementation of new tools to help the application of these processes, and the validation of these changes through rigorous empirical evaluation.Involving external contributors is also very useful at the level of the package ecosystem. This thesis additionally contains an analysis of package distribution methods, and a focus on the problem of the long-term maintenance of single-maintainer packages
3

Savary-Leblanc, Maxime. "Augmenting software engineers with modeling assistants." Thesis, Université de Lille (2018-2021), 2021. https://pepite-depot.univ-lille.fr/LIBRE/EDMADIS/2021/2021LILUB027.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance du domaine est une condition préalable à la conception et à la mise en œuvre de logiciels adaptés aux exigences des parties prenantes. Une façon courante de formaliser cette connaissance est réalisée par des modèles conceptuels, qui sont couramment utilisés pour décrire ou simuler un système. L'acquisition d'une telle expertise nécessite de discuter avec des parties prenantes bien informées et/ou d'avoir accès à des documents utiles, qui ne sont pas toujours facilement accessibles. Dans le même temps, de plus en plus d'échantillons de modèles peuvent être rassemblés à partir de sources multiples, ce qui représente un nombre croissant d'éléments de connaissance déjà formalisés et accessibles. Par exemple, certaines entreprises conservent des archives de référentiels de modèles internes. Il existe également de nombreux projets open source qui contiennent des modèles, tandis que certains outils de modélisation offrent même la possibilité de créer des projets publics que l'on peut parcourir librement. Ces sources de données pourraient être exploitées pour créer une connaissance du domaine qui pourrait être fournie aux ingénieurs logiciels lors de la modélisation. Pour être utile, cette connaissance doit être de haute qualité, mais doit aussi être bien intégrée dans le processus de modélisation du logiciel. L'objectif de cette thèse est de fournir un cadre pour exploiter les connaissances afin d'aider les utilisateurs d'outils de modélisation informatique avec des assistants de modélisation logicielle. Cette thèse présente d'abord nos questions de recherche basées sur une étude de cartographie systématique sur les assistants logiciels pour l'ingénierie logicielle, et se concentre ensuite sur les assistants logiciels pour la modélisation. Elle rend compte de la conception d'assistants de modélisation basée sur une approche centrée sur l'utilisateur. Nous présentons les conclusions des entretiens menés avec des experts en modélisation, une étape au cours de laquelle les exigences sont recueillies. Ensuite, nous développons la création d'un prototype de base de connaissances en modélisation permettant (i) de créer des connaissances artificielles générales et spécifiques en modélisation, et (ii) de les mettre à disposition de tout client logiciel via des recommandations. Après avoir présenté les résultats d'une expérience concernant la précision du système, nous discutons ces résultats préliminaires. Enfin, cette thèse présente l'implémentation d'un assistant de modélisation logiciel intégré à l'outil Papyrus, qui vise à cognifier l'environnement de modélisation UML en intégrant les connaissances précédemment créées. Notre travail permet de clarifier le besoin d'assistance pendant les travaux de modélisation de logiciels, de présenter une première approche de la conception d'assistants logiciels pour la modélisation de logiciels, et d'identifier les défis de recherche dans l'assistance à la modélisation
Domain knowledge is a prerequisite to produce software design and implementation tailored to stakeholders’ requirements. One common way to formalize that knowledge is achieved through conceptual models, which are commonly used to describe or simulate a system. Acquiring such expertise requires to discuss with knowledgeable stakeholders and/or to get an access to useful documents, which both might not always be easily accessible. In the same time, more and more model samples can be gathered from multiple sources, what represents an increasing number of already formalized and accessible knowledge pieces. For example, some companies keep archives of internal model repositories. There also exist numerous open source projects that contain models while some modeling tools even offer the possibility to create public projects that are free to browse. Such data sources could be exploited to create domain knowledge that could be provided to software engineers while modeling. To be useful, this knowledge must be of high quality, but must also be well integrated into the software modeling process. The focus of this thesis is to provide a framework to exploit knowledge to assist users of computer-based modeling tools with software modeling assistants. This thesis first introduces our research questions based on a systematic mapping study about software assistants for software engineering, and then focuses on software assistants for modeling. It reports on the design of modeling assistants based on a user-centered approach. We present the conclusions of interviews conducted with experts in modeling, a stage in which requirements are collected. Then, we develop the creation of a prototype modeling knowledge base allowing (i) to create general and specific artificial modeling knowledge, and (ii) to make them available to any software client via recommendations. After introducing the results of an experiment regarding the accuracy of the system, we discuss these preliminary results. Finally, this thesis presents a software modeling assistant implementation integrated to the Papyrus tool, which aims to cognify the UML modeling environment by integrating the previously created knowledge. Our work helps to clarify the need for assistance during software modeling work, presents an initial approach to the design of software assistants for software modeling, and identify research challenges in modeling assistance
4

Delépine, Ludovic. "L'assistance à la navigation hyperdocumentaire : un assistant logiciel d'aide à la recherche de documents visités par un lecteur dans le contexte du Web : une approche sémio-technologique." Dijon, 2003. http://www.theses.fr/2003DIJOS009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Filou, Vincent. "Une étude formelle de la théorie des calculs locaux à l'aide de l'assistant de preuve Coq." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14708/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est de produire un environnement permettant de raisonner formellement sur la correction de systèmes de calculs locaux, ainsi que sur l'expressivité de ce modèle de calcul. Pour ce faire, nous utilisons l'assistant de preuve Coq. Notre première contribution est la formalisation en Coq de la sémantique des systèmes de réétiquetage localement engendrés, ou calculs locaux. Un système de calculs locaux est un système de réétiquetage de graphe dont la portée est limitée. Nous proposons donc tout d'abord une implantation succincte de la théorie des graphes en Coq, et utilisons cette dernière pour définir les systèmes de réétiquetage de graphes localement engendrés. Nous avons relevé, dans la définition usuelle des calculs locaux, certaines ambiguïtés. Nous proposons donc une nouvelle définition, et montrons formellement que celle-ci capture toutes les sous-classes d'algorithmes étudiées. Nous esquissons enfin une méthodologie de preuve des systèmes de calculs locaux en Coq.Notre seconde contribution consiste en l'étude formelle de l'expressivité des systèmes de calculs locaux. Nous formalisons un résultat de D. Angluin (repris par la suite par Y. Métivier et J. Chalopin): l'inexistence d'un algorithme d'élection universelle. Nous proposons ensuite deux lemmes originaux concernant les calculs locaux sur les arêtes (ou systèmes LC0), et utilisons ceux-ci pour produire des preuves formelles d'impossibilité pour plusieurs problèmes: calcul du degré de chaque sommet, calcul d'arbre recouvrant, etélection. Nous proposons informellement une nouvelles classes de graphe pour laquelle l'élection est irréalisable par des calculs locaux sur les arêtes.Nous étudions ensuite les transformations de systèmes de calculs locaux et de leur preuves. Nous adaptons le concept de Forward Simulation de N. Lynch aux systèmes de calculs locaux et utilisons ce dernier pour démontrer formellement l'inclusion de deux modes de détection de terminaison dans le cas des systèmes LC0. La preuve de cette inclusion estsimplifiée par l'utilisation de transformations "standards" de systèmes, pour lesquels des résultats génériques ont été démontrés. Finalement, nous réutilisons ces transformations standards pour étudier, en collaboration avec M. Tounsi, deux techniques de composition des systèmes de réétiquetage LC0. Une bibliothèque Coq d'environ 50000 lignes, contenant les preuves formelles des théorèmes présentés dans le mémoire de thèse à été produite en collaboration avec Pierre Castéran (dont environ 40%produit en propre par V. Filou) au cours de cette thèse
The goal of this work is to build a framework allowing the study, in aformal setting, of the correctness of local computations systems aswell as the expressivity of this model. A local computation system isa set of graph relabelling rules with limited scope, corresponding to a class of distributed algorithms.Our first contribution is the formalisation, in the Coq proofassistant, of a relationnal semantic for local computation systems.This work is based on an original formal graph theory for Coq.Ambiguities inherent to a "pen and paper" definition of local computations are corrected, and we prove that our definition captures all sub-classes of relabelling relations studied in the remainder. We propose a draft of a proof methodology for local computation systems in Coq. Our second contribution is the study of the expressivity of classes of local computations inside our framework. We provide,for instance, a formal proof of D. Angluin results on election and graph coverings. We propose original "meta-theorems" concerningthe LC0 class of local computation, and use these theorem to produce formal impossibility proofs.Finally we study possible transformations of local computation systemsand of their proofs. To this end, we adapt the notion of ForwardSimulation, originally formulated by N. Lynch, to localcomputations. We use this notion to define certified transformationsof LC0 systems. We show how those certified transformation can be useto study the expressivity of certain class of algorithm in ourframework. We define, as certified transformation, two notions ofcomposition for LC0 systems.A Coq library of ~ 50000 lines of code, containing the formal proofs of the theorems presented in the thesis has been produced in collaboration with Pierre Castéran
6

Lelay, Catherine. "Repenser la bibliothèque réelle de Coq : vers une formalisation de l'analyse classique mieux adaptée." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112096/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse réelle a de nombreuses applications car c'est un outil approprié pour modéliser de nombreux phénomènes physiques et socio-économiques. En tant que tel, sa formalisation dans des systèmes de preuve formelle est justifié pour permettre aux utilisateurs de vérifier formellement des théorèmes mathématiques et l'exactitude de systèmes critiques. La bibliothèque standard de Coq dispose d'une axiomatisation des nombres réels et d'une bibliothèque de théorèmes d'analyse réelle. Malheureusement, cette bibliothèque souffre de nombreuses lacunes. Par exemple, les définitions des intégrales et des dérivées sont basées sur les types dépendants, ce qui les rend difficiles à utiliser dans la pratique. Cette thèse décrit d'abord l'état de l'art des différentes bibliothèques d'analyse réelle disponibles dans les assistants de preuve. Pour pallier les insuffisances de la bibliothèque standard de Coq, nous avons conçu une bibliothèque facile à utiliser : Coquelicot. Une façon plus facile d'écrire les formules et les théorèmes a été mise en place en utilisant des fonctions totales à la place des types dépendants pour écrire les limites, dérivées, intégrales et séries entières. Pour faciliter l'utilisation, la bibliothèque dispose d'un ensemble complet de théorèmes couvrant ces notions, mais aussi quelques extensions comme les intégrales à paramètres et les comportements asymptotiques. En plus, une hiérarchie algébrique permet d'appliquer certains théorèmes dans un cadre plus générique comme les nombres complexes pour les matrices. Coquelicot est une extension conservative de l'analyse classique de la bibliothèque standard de Coq et nous avons démontré les théorèmes de correspondance entre les deux formalisations. Nous avons testé la bibliothèque sur plusieurs cas d'utilisation : sur une épreuve du Baccalauréat, pour les définitions et les propriétés des fonctions de Bessel ainsi que pour la solution de l'équation des ondes en dimension 1
Real analysis is pervasive to many applications, if only because it is a suitable tool for modeling physical or socio-economical systems. As such, its support is warranted in proof assistants, so that the users have a way to formally verify mathematical theorems and correctness of critical systems. The Coq system comes with an axiomatization of standard real numbers and a library of theorems on real analysis. Unfortunately, this standard library is lacking some widely used results. For instance, the definitions of integrals and derivatives are based on dependent types, which make them cumbersome to use in practice. This thesis first describes various state-of-the-art libraries available in proof assistants. To palliate the inadequacies of the Coq standard library, we have designed a user-friendly formalization of real analysis: Coquelicot. An easier way of writing formulas and theorem statements is achieved by relying on total functions in place of dependent types for limits, derivatives, integrals, power series, and so on. To help with the proof process, the library comes with a comprehensive set of theorems that cover not only these notions, but also some extensions such as parametric integrals and asymptotic behaviors. Moreover, an algebraic hierarchy makes it possible to apply some of the theorems in a more generic setting, such as complex numbers or matrices. Coquelicot is a conservative extension of the classical analysis of Coq's standard library and we provide correspondence theorems between the two formalizations. We have exercised the library on several use cases: in an exam at university entry level, for the definitions and properties of Bessel functions, and for the solution of the one-dimensional wave equation
7

Nemouchi, Yakoub. "Model-based Testing of Operating System-Level Security Mechanisms." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS061/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le test à base de modèle, en particulier test basé sur des assistants à la preuve, réduit de façon transparente l'écart entre la théorie, le modèle formel, et l’implémentation d'un système informatique. Actuellement, les techniques de tests offrent une possibilité d'interagir directement avec de "vrais" systèmes : via différentes propriétés formelles, les tests peuvent être dérivés et exécutés sur le système sous test. Convenablement, l'ensemble du processus peut être entièrement automatisé. Le but de cette thèse est de créer un environnement de test de séquence à base de modèle pour les programmes séquentiels et concurrents. Tout d'abord une théorie générique sur les monades est présentée, qui est indépendante de tout programme ou système informatique. Il se trouve que notre théorie basée sur les monades est assez expressive pour couvrir tous les comportements et les concepts de tests. En particulier, nous considérons ici : les exécutions séquentielles, les exécutions concurrentes, les exécutions synchronisées, les exécutions avec interruptions. Sur le plan conceptuel, la théorie apporte des notions comme la notion raffinement de test, les cas de tests abstraits, les cas de test concrets, les oracles de test, les scénarios de test, les données de tests, les pilotes de tests, les relations de conformités et les critères de couverture dans un cadre théorique et pratique. Dans ce cadre, des règles de raffinement de comportements et d'exécution symbolique sont élaborées pour le cas générique, puis affinées et utilisées pour des systèmes complexes spécifique. Comme application pour notre théorie, nous allons instancier notre environnement par un modèle séquentiel d'un microprocesseur appelé VAMP développé au cours du projet Verisoft. Pour le cas d'étude sur la concurrence, nous allons utiliser notre environnement pour modéliser et tester l'API IPC d'un système d'exploitation industriel appelé PikeOS.Notre environnement est implémenté en Isabelle / HOL. Ainsi, notre approche bénéficie directement des modèles, des outils et des preuves formelles de ce système
Formal methods can be understood as the art of applying mathematical reasoningto the modeling, analysis and verification of computer systems. Three mainverification approaches can be distinguished: verification based on deductive proofs,model checking and model-based testing.Model-based testing, in particular in its radical form of theorem proving-based testingcite{brucker.ea:2012},bridges seamlessly the gap between the theory, the formal model, and the implementationof a system. Actually,theorem proving based testing techniques offer a possibility to directly interactwith "real" systems: via differentformal properties, tests can be derived and executed on the system under test.Suitably supported, the entire process can fully automated.The purpose of this thesis is to create a model-based sequence testing environmentfor both sequential and concurrent programs. First a generic testing theory basedon monads is presented, which is independent of any concrete program or computersystem. It turns out that it is still expressive enough to cover all common systembehaviours and testing concepts. In particular, we consider here: sequential executions,concurrent executions, synchronised executions, executions with abort.On the conceptual side, it brings notions like test refinements,abstract test cases, concrete test cases,test oracles, test scenarios, test data, test drivers, conformance relations andcoverage criteria into one theoretical and practical framework.In this framework, both behavioural refinement rules and symbolic executionrules are developed for the generic case and then refined and used for specificcomplex systems. As an application, we will instantiate our framework by an existingsequential model of a microprocessor called VAMP developed during the Verisoft-Project.For the concurrent case, we will use our framework to model and test the IPC API of areal industrial operating system called PikeOS.Our framework is implemented in Isabelle/HOL. Thus, our approach directly benefitsfrom the existing models, tools, and formal proofs in this system
8

Guettala, Abdelheq Et-Tahir. "VizAssist : un assistant utilisateur pour le choix et le paramétrage des méthodes de fouille visuelle de données." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4017/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse au problème de l’automatisation du processus de choix et de paramétrage des visualisations en fouille visuelle de données. Pour résoudre ce problème, nous avons développé un assistant utilisateur "VizAssist" dont l’objectif principal est de guider les utilisateurs (experts ou novices) durant le processus d’exploration et d’analyse de leur ensemble de données. Nous illustrons, l’approche sur laquelle s’appuie VizAssit pour guider les utilisateurs dans le choix et le paramétrage des visualisations. VizAssist propose un processus en deux étapes. La première étape consiste à recueillir les objectifs annoncés par l’utilisateur ainsi que la description de son jeu de données à visualiser, pour lui proposer un sous ensemble de visualisations candidates pour le représenter. Dans cette phase, VizAssist suggère différents appariements entre la base de données à visualiser et les visualisations qu’il gère. La seconde étape permet d’affiner les différents paramétrages suggérés par le système. Dans cette phase, VizAssist utilise un algorithme génétique interactif qui a pour apport de permettre aux utilisateurs d’évaluer et d’ajuster visuellement ces paramétrages. Nous présentons enfin les résultats de l’évaluation utilisateur que nous avons réalisé ainsi que les apports de notre outil à accomplir quelques tâches de fouille de données
In this thesis, we deal with the problem of automating the process of choosing an appropriate visualization and its parameters in the context of visual data mining. To solve this problem, we developed a user assistant "VizAssist" which mainly assist users (experts and novices) during the process of exploration and analysis of their dataset. We illustrate the approach used by VizAssit to help users in the visualization selection and parameterization process. VizAssist proposes a process based on two steps. In the first step, VizAssist collects the user’s objectives and the description of his dataset, and then proposes a subset of candidate visualizations to represent them. In this step, VizAssist suggests a different mapping between the database for representation and the set of visualizations it manages. The second step allows user to adjust the different mappings suggested by the system. In this step, VizAssist uses an interactive genetic algorithm to allow users to visually evaluate and adjust such mappings. We present finally the results that we have obtained during the user evaluation that we performed and the contributions of our tool to accomplish some tasks of data mining
9

Braun, David. "Approche combinatoire pour l'automatisation en Coq des preuves formelles en géométrie d'incidence projective." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s’inscrit dans le domaine de la preuve assistée par ordinateur et se place d'un point de vue méthodologique. L’objectif premier des assistants de preuves est de vérifier qu’une preuve écrite à la main est correcte; la question ici est de savoir comment à l’intérieur d’un tel système, il est possible d'aider un utilisateur à fabriquer une preuve formelle du résultat auquel il s'intéresse. Ces questions autour de la vérification de preuves, en particulier en certification du logiciel, et au delà de leur traçabilité et de leur lisibilité sont en effet devenues prégnantes avec l’importance qu’ont prise les algorithmes dans notre société. Bien évidemment, répondre à la question de l’aide à la preuve dans toute sa généralité dépasse largement le cadre de cette thèse. C’est pourquoi nous focalisons nos travaux sur la preuve en mathématiques dans un cadre particulier qui est bien connu dans notre équipe : la géométrie et sa formalisation dans le système Coq. Dans ce domaine, nous mettons premièrement en évidence les niveaux auxquels on peut oeuvrer à savoir le contexte scientifique à travers les méthodes de formalisation mais aussi le contexte méthodologique et technique au sein de l'assistant de preuve Coq. Dans un second temps, nous essayons de montrer comment nos méthodes et nos idées sont généralisables à d'autres disciplines. Nous mettons ainsi en place dans nos travaux les premiers jalons pour une aide à la preuve efficace dans un contexte géométrique simple mais omniprésent. À travers une approche classique fondée sur la géométrie synthétique et une approche combinatoire complémentaire utilisant le concept de rang issu de la théorie des matroïdes, nous fournissons à l'utilisateur des principes généraux et des outils facilitant l'élaboration de preuves formelles. Dans ce sens, nous comparons les capacités d'automatisation de ces deux approches dans le contexte précis des géométries finies avant de finalement construire un prouveur automatique de configuration géométrique d'incidence
This thesis work is part of the general field of computer-assisted proof and is methodologically based. The primary objective of proof assistants is to verify that handwritten demonstration is correct; the question here is how within such a system, it is possible to help a user to make a formal proof of the result in which he is interested. These questions around the verification of proofs, in particular in software certification, and beyond their traceability and readability have indeed become significant with the importance that algorithms have taken on in our society. Obviously, answering the question of proof assistance in all its generality goes far beyond the scope of this thesis. This is why we focus our work on proof in mathematics in a particular framework that is well known in our team: geometry and its formalization in the Coq system. In this field, we first highlight the levels at which we can work, namely the scientific context through the formalization methods but also the methodological and technical context within the Coq proof assistant. In a second step, we try to show how our methods and ideas can be generalized to other disciplines. In this way, we are putting in place the first steps towards effective proof assistance in a simple but omnipresent geometric context. Through a classical approach based on synthetic geometry and a complementary combinatorial approach using the concept of rank from matroid theory, we provide the user with general principles and tools to facilitate the development of formal proof. In this sense, we compare the automation capabilities of these two approaches in the specific context of finite geometries before finally constructing an automatic prover of geometric configurations of incidence
10

Boudissa, Mehdi. "Réduction virtuelle des fractures complexes du bassin à l'aide du premier simulateur biomécanique patient-spécifique Computer-assisted surgery in acetabular fractures: Virtual reduction of acetabular fracture using the first patient-specific biomechanical model simulator Computer Assisted Surgery in Preoperative Planning of Acetabular Fracture Surgery: State of the Art." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The aim of this work was to develop and validate a new pre-operative planning in acetabular surgery based on a patient-specific biomechal model. During the first part of this work we brought enhancement in each step of the planning process for acetabular fracture surgery. The first step was to generate 3D models of several acetabular fracture patterns using semi-automatic segmentation methods. In the same time, we showed that the segmented fragments bone could be usefull to correctly classify acetabular fracture by unexperimented residents. The second step was to generate a patient-specific model, in a very simple way, that could be used in clinical practice by surgeons. A literature review of acetabular planning models was performed to identify that a new paradigm was required because of the limitations of the existing models. Once the objectives of patient-specific modelling was identified, a literature review of hips models was performed to record biomechanical properties of the elements that we had to modelize. A compromise between simplicity and realistic behaviour was found to generate patient-specifics biomechanical models, in a limited time, that could be used in clinical practice. Clinical studies on 14 operated cases, then 29 operated cases and finally 39 operated cases, were performed to validate retrospectively the simulations. The results were quite promising. Only open-source softwares with their own weaknesses were used because validity and feasability of the procedure was required before bigger investissment. The proof of concept was done. A prospective clinical study has shown the efficiency of the patient-specific biomechanical simulation and its feasibility in a daily clinical practice. This work opens a door for new approaches in surgical planning and patient-specific modelling
L’objectif de cette thèse est de développer et valider une nouvelle méthode de planification pré-opératoire en chirurgie traumatique de l’acetabulum reposant sur un modèle biomécanique patient-spécifique. La première partie de ce travail a consisté en l’élaboration et l’amélioration progressive de ce nouvel outil de planification. La première étape était de générer des modèles tri-dimensionnels de plusieurs fractures acétabulaires à l’aide d’une méthode de segmentation semi-automatique. Dans le même temps, nous avons démontré que les fragments osseux segmentés pouvaient être utile pour classer correctement les fractures acétabulaires par des internes non expérimentés. La seconde étape était de générer un modèle biomécanique patient-spécifique, le plus simplement possible pour pouvoir être compatible avec une pratique clinique régulière. Une revue de la littérature à propos des différentes méthodes de planifications péri-opératoire en traumatologie de l’acetabulum a été réalisée afin d’identifier qu’un nouveau paradigme était nécessaire du fait des limites des méthodes existantes. Une fois les objectifs d’une modélisation biomécanique patient-spécifique définis, une revue de la littérature des différents modèles biomécanique de la hanche a été réalisée pour définir les propriétés biomécaniques des différents éléments à modéliser. Un compromis entre simplicité et comportement réaliste du modèle a été trouvé pour générer un modèle biomécanique patient-spécifique, dans un temps limité, compatible avec une utilisation courante en pratique clinique. Des études cliniques portant sur 14 cas de fractures acétabulaires opérées, puis 29 et finalement 39 cas ont été réalisées pour valider rétrospectivement les simulations biomécaniques. Les résultats montraient une parfaite adéquation avec la réalité. Seuls des logiciels en libre accès, avec leurs faiblesses, étaient utilisés car la fiabilité et la validité de la simulation étaient nécessaires avant d’envisager plus d’investissements. La preuve de concept était donnée. Enfin, une étude clinique prospective a démontré l’efficacité de la simulation biomécanique patient-spécifique et sa faisabilité en pratique clinique quotidienne. Ce travail ouvre la porte à de nouvelles approches en matière de planification chirurgicale et de modélisation patient-spécifique
11

Jourdan, Jacques-Henri. "Verasco : a Formally Verified C Static Analyzer." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de développer des logiciels plus sûrs pour des applications critiques, certains analyseurs statiques tentent d'établir, avec une certitude mathématique, l'absence de certains types de bugs dans un programme donné. Une limite possible à cette approche est l'éventualité d'un bug affectant la correction de l'analyseur lui-même, éliminant ainsi les garanties qu'il est censé apporter. Dans cette thèse, nous proposons d'établir des garanties formelles sur l'analyseur lui-même : nous présentons la conception, l'implantation et la preuve de sûreté en Coq de Verasco, un analyseur statique formellement vérifié utilisant l'interprétation abstraite pour le langage ISO C99 avec l'arithmétique flottante IEEE754 (à l'exception de la récursion et de l'allocation dynamique de mémoire). Verasco a pour but d'établir l'absence d'erreur à l'exécution des programmes donnés. Il est conçu selon une architecture modulaire et extensible contenant plusieurs domaines abstraits et des interfaces bien spécifiées. Nous détaillons le fonctionnement de l'itérateur abstrait de Verasco, son traitement des entiers bornés de la machine, son domaine abstrait d'intervalles, son domaine abstrait symbolique et son domaine abstrait d'octogones. Verasco a donné lieu au développement de nouvelles techniques pour implémenter des structures de données avec partage dans Coq
In order to develop safer software for critical applications, some static analyzers aim at establishing, with mathematical certitude, the absence of some classes of bug in the input program. A possible limit to this approach is the possibility of a soundness bug in the static analyzer itself, which would nullify the guarantees it is supposed to deliver. In this thesis, we propose to establish formal guarantees on the static analyzer itself: we present the design, implementation and proof of soundness using Coq of Verasco, a formally verified static analyzer based on abstract interpretation handling most of the ISO C99 language, including IEEE754 floating-point arithmetic (except recursion and dynamic memory allocation). Verasco aims at establishing the absence of erroneous behavior of the given programs. It enjoys a modular extendable architecture with several abstract domains and well-specified interfaces. We present the abstract iterator of Verasco, its handling of bounded machine arithmetic, its interval abstract domain, its symbolic abstract domain and its abstract domain of octagons. Verasco led to the development of new techniques for implementing data structure with sharing in Coq
12

Husson, Adrien. "Logical foundations of a modelling assistant for molecular biology." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7116.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse concerne la “représentation exécutable du savoir”dans le domaine de la biologie moléculaire. Elle introduit les fondements d’un cadre logique appelé iota, dont le but est de décrire et rassembler des faits au sujet d’interactions entre protéines tout en offrant au modeleur la possibilité de compiler un fragment raisonnable de la logique vers un ensemble fini de règles de réécriture. On définit une logique FO[↓] qui décrit des transitions d’états cellulaires. Un état représente le contenu d’une cellule : les éléments du domaine sont des parties de protéines et les relations sont des liaisons entre protéines. L’opérateur logique unaire ↓sélectionne les transitions où un ensemble minimal de changements a lieu. Les formules qui parlent de transitions dénotent aussi des exécutions, c’est-à-dire des séquences finies ou infinies de transitions. Chaque formule de transition est de plus associée à un ensemble de règles de réécritures équipé d’une sémantique opérationnelle. On introduit deux système déductifs qui permettent de“typer” les formules. On montre que si une formule est typable dans le1er système, alors l’exécution des règles de réécriture qui lui sont associées produit exactement les exécutions dénotées par la formule ;et que si elle est typable dans le 2nd système, alors son système de règles associé est fini. On introduit une grammaire qui produit des formules typables dans les deux systèmes à équivalence logique près. Enfin, on étudie la décidabilité et l’expressivité de fragments de FO[↓]. On montre en particulier que les formules typables dans le second système sont définissables dans un petit fragment de FO, ce qui implique que l’opérateur ↓ peut alors être éliminé
This thesis addresses the issue of “Executable Knowledge Representation” in the context of molecular biology. We introduce the foundation of a logical framework, termed iota, whose aim is to facilitate knowledge collation of molecular interactions at the level of proteins and at the same time allows the modeler to “compile” a reasonable fragment of the logic into a finite set of executable graph rewriting rules. We define a logic FO[↓] over cell state transitions. States represent cell contents; domain elements are protein parts and relations are protein-protein bindings. The unary logical operator ↓ selects transitions where as little as possible happens. Formulas over transitions also denote runs, which are finite or infinite sequences of transitions. Every transition formula is moreover associated to a set of rewriting rules equipped with an operational semantics. We introduce two deductive systems that act as “typing” for formulas. We show that if a formula is typable in the first system then the execution of its associated rule set produces exactly the runs denoted by the formula, and that if it is typable in the second system then its associated rule set is finite. We introduce a grammar that produces formulas typable in both systems, up to logical equivalence. Finally we study decidability and definability properties of fragments of FO[↓]. In particular, we show that formulas typable in the second system are in a tight fragment of FO,which implies that the operator ↓ can then be eliminated
13

Canals, Gérôme. "Des mécanismes pour l'assistance aux utilisateurs dans un atelier de génie logiciel conduit par des modèles." Nancy 1, 1992. http://www.theses.fr/1992NAN10170.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La complexité croissante des produits logiciels et de leur processus de production rend indispensable la mise en place de mécanismes d'assistance au développement pour aider les acteurs d'un projet dans leurs choix et prises d'initiatives de développement. La modélisation des processus de fabrication de logiciels émerge depuis quelques années comme un paradigme prometteur pour la réalisation de cette assistance: la modélisation consiste à exprimer des connaissances sur les propriétés attendues d'un processus. Cette connaissance peut alors être exploitée par l'atelier de production pour contrôler et guider le développement. Cette thèse présente l'architecture d'un système de développement conduit par des modèles. Ensuite sont construits quatre mécanismes d'assistance: un mécanisme de contrôle des initiatives, un mécanisme de rapport, qui signale aux différents acteurs les événements pouvant influencer leur travail, un mécanisme de guidage, qui indique aux différents acteurs les moyens d'atteindre un objectif donne et un mécanisme de prévision, qui permet aux différents acteurs d'envisager l'avenir potentiel du processus. L'implantation de ces quatre mécanismes fait largement appel à des techniques d'intelligence artificielle, notamment la planification d'actions. Ces réalisations ont eu en partie pour cadre le projet esprit ALF
14

Cherifi, Nadir. "Assistance au développement de logiciels embarqués contraints en énergie." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La désignation sous le terme d'Internet des Objets regroupe un ensemble vaste de systèmes connectés différents.Un nombre significatif de ces objets ne disposent pas d'une alimentation continue et sont alimentés grâce à des batteries. Par ailleurs, il existe de nombreux cas d'utilisation où le rechargement de cette dernière se trouve être difficile voire impossible (e.g. objet enfoui dans le béton pour la surveillance de structures). De ce fait, l'aspect énergétique représente une contrainte primordiale à prendre en compte par les développeurs lors de la conception de l'application embarquée sur l'objet. La problématique de nos travaux consiste à placer l'énergie comme ressource de premier ordre lors du développement en fournissant une aide et une assistance aux développeurs face à la complexité de gestion de cette ressource. Nous proposons comme solution une méthodologie et des outils pour soutenir les activités du développeur embarqué dans un environnement contraint en énergie. En outre, nous affirmons que la capacité de mesurer et de suivre finement la consommation énergétique des objets connectés, puis de la corréler au logiciel sous-jacent permet d'améliorer l'efficacité énergétique globale en mettant en œuvre des bonnes pratiques liées à l'utilisation des différents composants matériels.Pour arriver à cela, nous basons nos travaux sur une méthode de mesure énergétique matérielle capable de fournir des chiffres de consommation précis. Nous construisons ainsi un framework de profilage et de cartographie énergétique d'un logiciel embarqué permettant d'aider le développeur dans la compréhension du comportement énergétique de son application
The designation under the term Internet of Things brings together a vast array of different connected systems.A significant number of these objects do not have a continuous power supply and are therefore supplied with batteries. In addition, we can list multiple use cases where the recharging of the battery is difficult or impossible (e.g. a buried object for structures monitoring). As a result, the energetic aspect represents a primary constraint to be taken into account by the developers when designing the embedded application on the object. The work issue consists in placing energy as a hard resource during the development phase by providing assistance and help to the developers in the management of this complex resource. We propose as a solution a methodology and tools to support the activities of the embedded developer in a constrained energy environment. We assert that the ability to accurately measure and track the energy consumption of a connected object and then correlate it to the underlying software can improve overall energy efficiency by implementing best practices related to use of the different hardware components. To achieve this goal, we base our work on a hardware energy measurement method able of providing accurate consumption figures. We than build an energy profiling and cartography framework of embedded software to help the developer understand the energy behavior of his application
15

Khammaci, Tahar. "Contribution à l'étude du processus de développement de logiciels : assistance à base de connaissance et modélisation des objets logiciels." Nancy 1, 1991. http://www.theses.fr/1991NAN10287.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans cette thèse s'inscrit dans le cadre de l'étude du processus de développement de logiciels selon deux aspects: 1) l'un concerne l'assistance a base de connaissance au développement. Une telle assistance repose sur une modélisation du processus de développement de logiciels. Le système UPSSA (using pre-postconditions for simulating software assistant) est une proposition d'intégration d'un outil d'assistance intelligente fonde sur les principes des systèmes à base de connaissances dans un environnement de génie logiciel. En outre, ce système s'appuie sur le paradigme des générateurs de plans d'actions pour déclencher, durant une session de travail d'un développeur, une séquence d'actions permettant de maintenir le logiciel en cours de développement dans un état cohérent; 2) l'autre est relatif à la modélisation des objets logiciels. Contrairement aux applications classiques, les données manipulées dans un projet de génie logiciel sont de type variés et inhabituels. Pour prendre en compte les besoins de structuration des objets dans un environnement de génie logiciel, nous proposons un modèle, appelé modèle objet-relation (MOR), qui combine des caractéristiques des modèles orientes objets et des modèles de données sémantiques. Nous présentons ses aspects formels et un langage de spécification d'un schéma objet-relation ainsi que quelques indications pour guider un utilisateur dans la conception d'un tel schéma. Puis, nous décrivons la représentation du concept de relation dans le système à objets ceyxle-lisp
16

Gallois-Wong, Diane. "Formalisation en Coq des algorithmes de filtre numérique calculés en précision finie." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les filtres numériques sont utilisés dans de nombreux domaines, des télécommunications à l'aérospatiale. En pratique, ces filtres sont calculés sur machine en précision finie (virgule flottante ou virgule fixe). Les erreurs d'arrondi résultantes peuvent être particulièrement problématiques dans les systèmes embarqués. En effet, de fortes contraintes énergétiques et spatiales peuvent amener à privilégier l'efficacité des calculs, souvent au détriment de leur précision. De plus, les algorithmes de filtres enchaînent de nombreux calculs, au cours desquels les erreurs d'arrondi se propagent et risquent de s'accumuler. Comme certains domaines d'application sont critiques, j'analyse les erreurs d'arrondi dans les algorithmes de filtre en utilisant l'assistant de preuve Coq. Il s'agit d'un logiciel qui garantit formellement que cette analyse est correcte. Un premier objectif est d'obtenir des bornes certifiées sur la différence entre les valeurs produites par un filtre implémenté (calculé en précision finie) et par le filtre modèle initial (défini par des calculs théoriques exacts). Un second objectif est de garantir l'absence de comportement catastrophique comme un dépassement de capacité supérieur imprévu. Je définis en Coq les filtres numériques linéaires invariants dans le temps (LTI), considérés dans le domaine temporel. Je formalise une forme universelle appelée la SIF, à laquelle on peut ramener n'importe quel algorithme de filtre LTI sans modifier ses propriétés numériques. Je prouve ensuite le théorème des filtres d'erreurs et le théorème du Worst-Case Peak Gain, qui sont deux théorèmes essentiels à l'analyse numérique d'un filtre sous forme de SIF. Par ailleurs, cette analyse dépend aussi de l'algorithme de somme de produits utilisé dans l'implémentation. Je formalise donc plusieurs algorithmes de somme de produits offrant différents compromis entre précision du résultat et vitesse de calcul, dont un algorithme original correctement arrondi au plus proche. Je définis également en Coq les dépassements de capacité supérieurs modulaires, afin de prouver la correction d'un de ces algorithmes même en présence de tels dépassements de capacité
Digital filters have numerous applications, from telecommunications to aerospace. To be used in practice, a filter needs to be implemented using finite precision (floating- or fixed-point arithmetic). Resulting rounding errors may become especially problematic in embedded systems: tight time, space, and energy constraints mean that we often need to cut into the precision of computations, in order to improve their efficiency. Moreover, digital filter programs are strongly iterative: rounding errors may propagate and accumulate through many successive iterations. As some of the application domains are critical, I study rounding errors in digital filter algorithms using formal methods to provide stronger guaranties. More specifically, I use Coq, a proof assistant that ensures the correctness of this numerical behavior analysis. I aim at providing certified error bounds over the difference between outputs from an implemented filter (computed using finite precision) and from the original model filter (theoretically defined with exact operations). Another goal is to guarantee that no catastrophic behavior (such as unexpected overflows) will occur. Using Coq, I define linear time-invariant (LTI) digital filters in time domain. I formalize a universal form called SIF: any LTI filter algorithm may be expressed as a SIF while retaining its numerical behavior. I then prove the error filters theorem and the Worst-Case Peak Gain theorem. These two theorems allow us to analyze the numerical behavior of the filter described by a given SIF. This analysis also involves the sum-of-products algorithm used during the computation of the filter. Therefore, I formalize several sum-of-products algorithms, that offer various trade-offs between output precision and computation speed. This includes a new algorithm whose output is correctly rounded-to-nearest. I also formalize modular overflows, and prove that one of the previous sum-of-products algorithms remains correct even when such overflows are taken into account
17

GHISONI, BONNET ISABELLE. "Creation d'un logiciel de dietetique au centre hospitalier regional de nice, diet assistance." Nice, 1988. http://www.theses.fr/1988NICE6011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Benali, Khalid. "Assistance et pilotage dans le développement de logiciel : Vers un modèle de description." Nancy 1, 1989. http://www.theses.fr/1989NAN10382.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à la construction d'ateliers de développement de logiciels et en particulier à l'assistance et au pilotage dans ce développement. Pour atteindre cet objectif, nous nous sommes concentrés sur deux aspects qui nous semblent essentiels, à savoir le partage d'informations communes et cohérentes sur les objets manipulés et la modélisation du processus de production de logiciels
19

Zid, Talel. "Conception d' un atelier logiciel d' assistance à l' ingénierie du besoin en intelligence économique." Toulouse 1, 2002. http://www.theses.fr/2002TOU10030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de recherche est centré sur une proposition d' un ensemble de modèles et d' un méta-modèle pour la spécification et le développement d' un outil logiciel. Cet outil est dédié à l' aide , à l' analyse et à la définition du besoin des décideurs en intelligence économique et à la définition et au prototypage de produits d' intelligence économique (I. E. )
This research focuses on a proposal which integrates a set of models and a méta-model for the specification and the development of a software tool. This software tool is dedicated to the aid to the definition and analysis of the decision-makers requirements in competitive intelligence. The software tool aids also to the definition and prototyping of business competitive products
20

Cadavid, Gómez Juan José. "Assistance à la méta-modélisation précise." Rennes 1, 2012. http://www.theses.fr/2012REN1S089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les langages de modélisation spécifique au domaine (DSMLs) promettent une augmentation de la productivité pour la modélisation de systèmes à logiciel intensif. Pourtant, la définition d'un langage qui capte correctement la connaissance d'un domaine reste un défi. La définition d'un métamodèle qui capture précisément un domaine est une tâche difficile. Deux obstacles majeurs se posent: Tout d'abord, un métamodèle est une description de l'ensemble infini de tous les modèles conformes. Cependant, il n'existe aucune méthode pour tester qu'un métamodèle capture les modèles corrects et pas plus. Deuxièmement, les experts qui veulent construire un métamodèle doivent maîtriser deux langages radicalement différentes: un langage pour la structure du domaine (MOF) et un langage pour les règles de bonne formation (OCL). La plupart des métamodèles ne disposent que d'une structure de domaine, conduisant à métamodèles inexactes. Pour le premier obstacle, nous travaillons sur la sélection automatique d'un ensemble de modèles test-adéquats dans l'espace de modélisation capturé par un métamodèle. Pour le second obstacle, nous avons effectué uneétude empirique pour analyser la pratique dans 33 métamodèles qui utilisent MOF et OCL. On y remarque l'existence d'expressions OCL fréquemment utilisées, ce qui a conduit à un catalogue de 20 patrons de MOF et OCL. Ils sont utilisés pour proposer un ensemble initial de règles pour un métamodèle d'entrée, qui sont validées par l'expert avec l'ensemble des modèles de test. Nous effectuons un raffinement sur l'ensemble des règles à l'aide de la programmation génétique. Nous avons ainsi une approche complète pour assister la métamodélisation précise
Domain-specific modeling languages (DSMLs) promise increased productivity for modeling software-intensive systems. Still, the definition of a language that correctly captures the domain knowledge remains difficult. The definition of a metamodel that precisely captures a domain is challenging. Two majors obstacles arise: First, a metamodel is a description of the possibly infinite set of all conforming models. However, there is currently no systematic method to test that a metamodel captures all the correct models of the domain and no more. Second, domain experts who want to build a metamodel must master two different languages: an object-oriented model for the domain structure (MOF) and first order logic (OCL) to define well-formedness rules. We observe that most metamodels have only an object-oriented domain structure, leading to inaccurate metamodels. For the first obstacle, we argue that providing the expert with a qualified set of test data will allow him to ensure that it only captures correct models. We focus on the automatic selection of a test-adequate set of models in the modeling space captured by a metamodel. For the second obstacle, we perform an empirical study to analyze the state of practice in 33 metamodels that actually use MOF and OCL. We notice that there is a set of frequent OCL expressions, which resulted in a catalog of 20 patterns of MOF-OCL, used to suggest rules for an input metamodel, which the expert validates with a selected set of test models. We perform further refinement to rules by using genetic programming. We have thus a complete global approach to tackle the main two obstacles for assisting precise metamodeling
21

Chen, Kejia. "Contribution à la conception de la mémoire d'un agent assistant personnel." Compiègne, 2008. http://www.theses.fr/2008COMP1774.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse concerne l'étude, la conception et le développement d'une mémoire pour des agents assistants personnels (PA). Ce travail s'inscrit dans un processus de développement d'un modèle générique d'agent PA. Après avoir étudié les problématiques dans ce domaine, nous envisageons de construire un agent PA doté de mémoire - l'agent MemoPA. Cet agent possède le comportement plus efficace, en mieux comprenant l'utilisateur et en mieux aidant l'utilisateur. Ayant examiné plusieurs modèles cognitifs de mémoire, nous proposons une mémoire d'un agent PA sous forme de MOP (Memory OrganizationPackets) et puis un mécanisme de mémoire inspiré par l'idée du raisonnement à partir de cas. Un prototype de MemoPA a été développé et implanté sur notre plate-forme multi-agents. En plus de la structuration de la mémoire, nous avons également réalisé un mécanisme de mise à jour de la base de connaissances au processus de mémoire, un mécanisme d'utilisation de cas pour résoudre de nouveaux problèmes, une politique d'identification de références pronominales dans la conversation en utilisant la mémoire. A travers plusieurs expérimentations dans ce prototype, nous concluons que l'agent MemoPA fait preuve d'une certaine sagesse par rapport aux agents PA sans mémoire. Grâce à une mémoire, certaines résolutions de tâches de l'utilisateur peuvent être améliorées, certaines erreurs dans ce processus peuvent être évitées, les énoncés de l'utilisateur peuvent être mieux compris
The thesis concerns the structuration of a memory for personal assistant (PA) agents. This work is realized in the process of developing a genric model of PA agent. After studying the issues in this area, we plan to build a PA agent with memory, named MemoPA agent. This agent behaves in a more effective way, allowing to better understand the user and help the user. Having examined several cognitive memory models, we propose to organize the memory of PA agents in the form of MOP (Memory Organization Packets) and then build a memory mechanism inspired by the idea of Cased-Based Reasoning. A prototype of MemoPA agent was developed and implemented in our multi-agents plateform. In addition to the structuration of memory, we also produced a mechanism to update the knowledge base during the memory process, a mechanism of using cases to resolve new problems, a policy of identifying pronominal references in the conversation. Through several experiments in the prototype, we conclude that the MemoPA agent showed some wisdow in relation to the PA agent without memory. With a memory, the resolving process of the user tasks can be improved, some errors in this process can be avoided and the user statements may be better understood
22

Patto, Vincius Sebba. "Utilisation d'agents assistants pour l'analyse et la prise de décision pour la gestion participative." Paris 6, 2010. http://www.theses.fr/2010PA066093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’usage de l’approche couplé des Systèmes Multiagent et des Jeux des Rôles (connue comme SMA/JR) et des ses évolutions, comme la Simulation Participative et les Jeux et Simulations Multiagents (Games and Multi-Agent-Based Simulations) a été appliqué dans différents scénarios pour l’étude et l’investigation des diverses hypothèses qui concernent, dans la plus part des cas, l’usage et la simulation des ressources naturelles et des interactions sociales. Cette thèse a été conduite comme une partie du projet SimParc, qui se concentre sur la gestion des parcs naturels. Le but principal de ce projet c’est la conception d’un outil informatique et épistemique pour l’entrainement, l’éducation et la recherche pour les gestionnaires des parcs, membres de conseils des parcs et pour les personnes intéressées par ces questions. Cette thèse discute le travail et la contribution de l’auteur à des problèmes scientifiques et techniques illustrés par ce projet. Plus précisément, cette monographie présente quelques prototypes développés dans ce projet et les agents informatiques employés dans des expérimentations. L’auteur souligne aussi l’importance des agents assistants informatiques dans ces expérimentations et l’usage d’une assistance non-intrusive pendant l’étape du jeu de négociation.
23

Habhouba, Dounia. "Assistance à la prise de decision dans le processus de modification d'un produit en utilisant la technologie "Agent logiciel"." Thèse, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1826.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gestion des changements d'ingénierie représente un défi pour les industriels dans le domaine de la conception mécanique assistée par ordinateur. Le système CAO est généralement entouré par d'autres systèmes tels que les SGDT les PGI ou autres. Pour que la gestion des changements soit entreprise efficacement, le système CAO doit être bien intégré avec les systèmes qui l'entourent. La communication entre les différentes équipes multidisciplinaires travaillant sur un projet a un impact positif sur le processus de gestion des changements dans sa globalité. Actuellement, la communication entre les disciplines se fait à l'aide d'échange de messages. Les experts sentent parfois le besoin de se rencontrer afin de se mettre d'accord sur le changement demandé. L'industrie de la CAO a donc besoin d'un système qui assiste l'humain dans la prise de décisions concernant les demandes de changements d'ingénierie. Un tel système diminuera considérablement le temps de traitement des demandes. Ce projet de doctorat propose de réaliser un outil de collaboration qui assiste les concepteurs dans le processus de gestion des changements. Le système proposé assure une certaine cohérence à travers les différentes disciplines impliquées dans ce processus. C'est également un outil d'aide à la décision dans la mesure où il va proposer des solutions alternatives si jamais la demande de changement n'est pas validée. Nous avons également réalisé la propagation externe des modifications. Cette une étape qui était complètement intégrée à notre projet, car il fallait qu'on importe des données du système CAO pouvoir les traiter dans le système de gestion des changements. La technologie"Agent logiciel" est utilisée pour implémenter le système proposé. L'approche"Agent" présente certains avantages par rapport à l'approche classique Client/Serveur. Elle permet justement de minimiser le nombre de requêtes sur le réseau (avec la propriété de mobilité). Dans le système chaque agent représente une expertise donnée et il y a un Agent gestionnaire qui contrôle la communication entre les différentes disciplines.
24

Vidal, Jean-Philippe Dartus Denis Moisan Sabine Faure Jean-Baptiste. "Assistance au calage de modèles numériques en hydraulique fluviale apports de l'intelligence artificielle /." Toulouse : INP Toulouse, 2005. http://ethesis.inp-toulouse.fr/archive/00000116.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Tibermacine, Chouki. "Contractualisation de l'évolution architecturale de logiciels à base de composants : Une approche pour la préservation de la qualité." Phd thesis, Université de Bretagne Sud, 2006. http://tel.archives-ouvertes.fr/tel-00512361.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De toutes les étapes qui constituent le processus de maintenance, l'étape de compréhension d'une application avant son évolution, et l'étape de vérification de sa progression et de sa non régression aprés évolution sont de loin les plus coûteuses. Dans cette these, je présente une approche qui diminue les coûts associés a ces deux étapes, pour des applications conçues à l'aide de composants. Dans cette approche, les liens unissant les attributs qualité d'une application et les décisions architecturales sont documentés formellement. La définition de ces liens se fait a chaque étape du cycle de vie de l'application. J'ai développé un environnement d'assistance à l'évolution, qui exploite cette documentation, pour d'une part, garantir sa mise a jour et d'autre part, notifier au développeur les effets possibles sur les exigences qualité des changements architecturaux proposés. Cette documentation forme ainsi un contrat dit d'évolution. Il s'agit d'un accord entre l'architecte de l'application et le responsable de son évolution. Le premier doit expliciter ses décisions de conception, sous la forme d'un ensemble de contraintes, afin qu'elles puissent être respectées lors du développement et de l'évolution. Le second doit respecter ce contrat afin de bénéficier d'une garantie de préservation de la qualité initialement requise. Ceci permet, principalement, de réduire les coûts associés aux tests de non-régression sur l'aspect non-fonctionnel. Cette même documentation est utilisée pour tracer toutes les décisions architecturales tout au long du processus de développement d'un logiciel. Il est possible, ainsi, de vérifier, à une étape donnée du processus, la non-altération de toutes les décisions prises dans les étapes en amont. J'ai proposé un outil permettant de transformer vers une représentation unique, puis évaluer, les contraintes définies lors des différentes étapes. Cette traçabilité des décisions a pour objectif de rendre persistants les attributs qualité qui sont à l'origine de ces décisions, à travers toutes les étapes du cycle de vie d'un logiciel.
26

Ullah, Sehat. "Multi-modal assistance for collaborative 3D interaction : study and analysis of performance in collaborative work." Thesis, Evry-Val d'Essonne, 2011. http://www.theses.fr/2011EVRY0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès récents dans le domaine de l'infographie et la capacité des ordinateurs personnels de rendre les scènes 3D réalistes ont permis de développer des environnements virtuels dans lesquels plusieurs utilisateurs peuvent co-exister et travailler ensemble pour atteindre un objectif commun. Ces environnements sont appelés Environnements Virtuels Collaboratifs (EVCs). Les applications potentielles des EVCs sont dans les domaines militaire, médical, l'assemblage, la conception assistée par ordinateur, la téléopération, l'éducation, les jeux et les réseaux sociaux. Un des problèmes liés aux EVCs est la faible connaissance des utilisateurs concernant l'état, les actions et les intentions de leur(s) collaborateur(s). Ceci réduit non seulement la performance collective, mais conduit également à des résultats non satisfaisants. En outre, les tâches collaboratives ou coopératives réalisées sans aide ou assistance, sont plus difficiles et plus sujettes aux erreurs. Dans ce travail de thèse, nous étudions l'influence de guides multi-modaux sur la performance des utilisateurs lors de tâches collaboratives en environnement virtuel (EV). Nous proposons un certain nombre de guides basés sur les modalités visuelle, auditive et haptique. Dans ce contexte, nous étudions leur qualité de guidage et examinons leur influence sur l'awareness, la co-présence et la coordination des utilisateurs pendant la réalisation des tâches. A cette fin, nous avons développé une architecture logicielle qui permet la collaboration de deux (peut être étendue a plusieurs utilisateurs) utilisateurs (distribués ou co-localisés). En utilisant cette architecture, nous avons développé des applications qui non seulement permettent un travail collaboratif, mais fournissent aussi des assistances multi-modales aux utilisateurs. Le travail de collaboration soutenus par ces applications comprend des tâches de type "Peg-in-hole", de télé-manipulation coopérative via deux robots, de télé-guidage pour l'écriture ou le dessin. Afin d'évaluer la pertinence et l'influence des guides proposés, une série d'expériences a été effectuée au LISA (Laboratoire d'Ingénierie et Systèmes Automatisés) à l'Université d'Angers et au Laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes) d'Evry. Dans ces expériences, les utilisateurs ont été invités à effectuer des tâches variées, dans des conditions différentes (avec et sans guides). L'analyse a été effectuée sur la base du temps de réalisation des tâches, des erreurs et de l'apprentissage des utilisateurs. Pour les évaluations subjectives des questionnaires ont été utilisés. Ce travail contribue de manière significative au développement de systèmes collaboratifs pour la téléopération, la simulation d'assemblage, l'apprentissage de gestes techniques, la rééducation, la conception assistée par ordinateur et le divertissement
The recent advancement in the field oh high quality computer graphics and the capability of inexpensive computers to render realistic 3D scenes have made it possible to develop virtual environments where two more users can co-exist and work collaboratively to achieve a common goal. Such environments are called Collaborative Virtual Environnment (CVEs). The potential application domains of CVEs are many, such as military, medical, assembling, computer aided designing, teleoperation, education, games and social networks etc.. One of the problems related to CVEs is the user's low level of awareness about the status, actions and intentions of his/her collaborator, which not only reduces user's performance but also leads to non satisfactory results. In addition, collaborative tasks without using any proper computer generated assistance are very difficult to perform and are more prone to errors. The basic theme of this thesis is to provide assistance in collaborative 3D interactiion in CVEs. In this context, we study and develop the concept of multimodal (audio, visual and haptic) assistance of a user or group of users. Our study focuses on how we can assist users to collaboratively interact with the entities of CVEs. We propose here to study and analyze the contribution of multimodal assistance in collaborative (synchronous and asynchronous) interaction with objects in the virtual environment. Indeed, we propose and implement various multimodal virtual guides. Theses guides are evaluated through a series of experiments where selection/manipulation task is carried out by users both in synchronous and asynchronous mode. The experiments were carried out in LISA (Laboratoire d'Ingénierie et Systèmes Automatisés) lat at University of Angers and IBISC (Informatique, Biologie Intégrative et Systèmes complexes) lab at University of Evry. In these experiments users were asked to perform a task under various conditions (with and without guides). Analysis was done on the basis of task completion time, errors and users' learning. For subjective evaluations questionnaires were used. The findings of this research work can contribute to the development of collaborative systems for teleopreation, assembly tasks, e-learning, rehabilitation, computer aided design and entertainment
27

Hajjam, El Hassani Amir. "Iac++ : un environnement interactif de programmation orientée objet dirigée par une assistance intelligente pour la réutilisation de composants logiciels." Mulhouse, 1990. http://www.theses.fr/1990MULH0154.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
IAC++ est un environnement partagé de programmation orientée objet pour le langage C++. Il est conçu dans le but de faciliter le prototypage et de permettre ainsi une amélioration de la productivité du logiciel sous le système UNIX. Son architecture se compose de deux parties bien distinctes, communiquant via le protocole TCP/IP : 1) l'environnement serveur, constitué par une base de composants logiciels, construite à partir de la librairie de classes C++ de Keith Gorlen, une couche de gestion de ces composants et un serveur basé sur les sockets, objets définis dans la version 4. 2 BSD du système UNIX ; 2) l'environnement client, constitué par une interface utilisateur, un module de gestion du dialogue avec le serveur et une assistance intelligente implémentée sous forme de système expert. IAC++ offre un environnement de développement multifenêtré. Il propose trois schémas de classification, afin d'offrir aux utilisateurs, suivant leur niveau de connaissance de l'environnement trois modes de visualisation différents de la base de composants. Une aide, suivant le concept d'hypertexte, facilite l'utilisation de l'environnement et l'apprentissage du C++, et permet aux utilisateurs de documenter leurs applications. Le travail en équipe est pris en compte et facilite, notamment sur l'automatisation de certaines tâches répétitives telles que la génération de chaînes de production. Pour pallier les problèmes de la recherche et de l'évaluation des composants logiciels, IAC++ propose une assistance intelligente. Elle a la capacité de suivre l'évolution de l'environnement et d'offrir une aide correspondant à l'état réel de la base de composants
28

Maroneze, André Oliveira. "Certified Compilation and Worst-Case Execution Time Estimation." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes informatiques critiques - tels que les commandes de vol électroniques et le contrôle des centrales nucléaires - doivent répondre à des exigences strictes en termes de sûreté de fonctionnement. Nous nous intéressons ici à l'application de méthodes formelles - ancrées sur de solides bases mathématiques - pour la vérification du comportement des logiciels critiques. Plus particulièrement, nous spécifions formellement nos algorithmes et nous les prouvons corrects, à l'aide de l'assistant à la preuve Coq - un logiciel qui vérifie mécaniquement la correction des preuves effectuées et qui apporte un degré de confiance très élevé. Nous appliquons ici des méthodes formelles à l'estimation du Temps d'Exécution au Pire Cas (plus connu par son abréviation en anglais, WCET) de programmes C. Le WCET est une propriété importante pour la sûreté de fonctionnement des systèmes critiques, mais son estimation exige des analyses sophistiquées. Pour garantir l'absence d'erreurs lors de ces analyses, nous avons formellement vérifié une méthode d'estimation du WCET fondée sur la combinaison de deux techniques principales: une estimation de bornes de boucles et une estimation du WCET via la méthode IPET (Implicit Path Enumeration Technique). L'estimation de bornes de boucles est elle-même décomposée en trois étapes : un découpage de programmes, une analyse de valeurs opérant par interprétation abstraite, et une méthode de calcul de bornes. Chacune de ces étapes est formellement vérifiée dans un chapitre qui lui est dédiée. Le développement a été intégré au compilateur C formellement vérifié CompCert. Nous prouvons que le résultat de l'estimation est correct et nous évaluons ses performances dans des ensembles de benchmarks de référence dans le domaine. Les contributions de cette thèse incluent la formalisation des techniques utilisées pour estimer le WCET, l'outil d'estimation lui-même (obtenu à partir de la formalisation), et l'évaluation expérimentale des résultats. Nous concluons que le développement fondé sur les méthodes formelles permet d'obtenir des résultats intéressants en termes de précision, mais il exige des précautions particulières pour s'assurer que l'effort de preuve reste maîtrisable. Le développement en parallèle des spécifications et des preuves est essentiel à cette fin. Les travaux futurs incluent la formalisation de modèles de coût matériel, ainsi que le développement d'analyses plus sophistiquées pour augmenter la précision du WCET estimé
Safety-critical systems - such as electronic flight control systems and nuclear reactor controls - must satisfy strict safety requirements. We are interested here in the application of formal methods - built upon solid mathematical bases - to verify the behavior of safety-critical systems. More specifically, we formally specify our algorithms and then prove them correct using the Coq proof assistant - a program capable of mechanically checking the correctness of our proofs, providing a very high degree of confidence. In this thesis, we apply formal methods to obtain safe Worst-Case Execution Time (WCET) estimations for C programs. The WCET is an important property related to the safety of critical systems, but its estimation requires sophisticated techniques. To guarantee the absence of errors during WCET estimation, we have formally verified a WCET estimation technique based on the combination of two main methods: a loop bound estimation and the WCET estimation via the Implicit Path Enumeration Technique (IPET). The loop bound estimation itself is decomposed in three steps: a program slicing, a value analysis based on abstract interpretation, and a loop bound calculation stage. Each stage has a chapter dedicated to its formal verification. The entire development has been integrated into the formally verified C compiler CompCert. We prove that the final estimation is correct and we evaluate its performances on a set of reference benchmarks. The contributions of this thesis include (a) the formalization of the techniques used to estimate the WCET, (b) the estimation tool itself (obtained from the formalization), and (c) the experimental evaluation. We conclude that our formally verified development obtains interesting results in terms of precision, but it requires special precautions to ensure the proof effort remains manageable. The parallel development of specifications and proofs is essential to this end. Future works include the formalization of hardware cost models, as well as the development of more sophisticated analyses to improve the precision of the estimated WCET
29

Nelson, Mark J. "Representing and reasoning about videogame mechanics for automated design support." Diss., Georgia Institute of Technology, 2015. http://hdl.handle.net/1853/53875.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Videogame designers hope to sculpt gameplay, but actually work in the concrete medium of computation. What they create is code, artwork, dialogue---everything that goes inside a videogame cartridge. In other materially constrained design domains, design-support tools help bridge this gap by automating portions of a design in some cases, and helping a designer understand the implications of their design decisions in others. I investigate AI-based videogame-design support, and do so from the perspective of putting knowledge-representation and reasoning (KRR) at the front. The KRR-centric approach starts by asking whether we can formalize an aspect of the game-design space in a way suitable for automated or semi-automated analysis, and if so, what can be done with the results. It begins with the question, "what could a computer possibly do here?", attempts to show that the computer actually can do so, and then looks at the implications of the computer doing so for design support. To organize the space of game-design knowledge, I factor the broad notion of game mechanics mechanics into four categories: abstract mechanics, concrete audiovisual representations, thematic mappings, and input mappings. Concretely, I investigate KRR-centric formalizations in three domains, which probe into different portions of the four quadrants of game-design knowledge: 1. using story graphs and story-quality functions for writing interactive stories, 2. automatic game design focused on the "aboutness" of games, which auto-reskins videogames by formalizing generalized spaces of thematic references, and 3. enhancing mechanics-oriented videogame prototypes by encoding the game mechanics in temporal logic, so that they can be both played and queried.
30

Fuckner, Márcio. "A personal assistant for the enactment of business processes." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2270/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernières années, les progrès en sciences de la gestion et de l’information ont transformé la Gestion de Processus d’Affaires (Business Process Management, BPM) en un sujet important, tant du côté de l’industrie que de celui de la recherche. Le BPM utilise des processus métiers pour améliorer la performance opérationnelle des organisations. Les processus métiers établissent un lien entre les personnes, les systèmes, et les différentes organisations, dans le but de créer de la valeur pour les parties prenantes. La cible de notre travail est la famille des systèmes BPM. Un système BPM est un système logiciel générique guidé par des modèles explicites de processus métier avec pour objectif d’exécuter et de gérer des processus opérationnels. Malgré le vaste éventail de sujets traités par ce domaine de recherche, il reste encore quelques questions qui méritent une étude plus approfondie. Un problème particulier concerne la médiation entre les systèmes BPM et les humains. L’interaction homme-machine dans ces systèmes repose sur des interfaces standard basées sur des listes de taches et des formulaires, ce qui est très contraignant pour les utilisateurs.Ceux-ci ont non seulement des difficultés à exécuter leurs processus métier, mais aussi a trouver le processus métier le mieux adapté à leurs besoins. Il serait beaucoup plus efficace d’utiliser des dialogues en langage naturel. Malheureusement les langages de modélisation de processus ne permettent pas de capturer ni de modéliser un domaine de discours. Le travail présent propose une approche originale de gestion du dialogue basée sur des systèmes multi-agents pour l’exécution des processus métier. La motivation globale pour ce travail fut de concevoir un modèle de dialogue extensible à différents domaines. Ce modèle s’appuie sur les ontologies de domaine, nécessitant un minimum d’effort d’adaptation pour améliorer l’interaction. Les résultats montrent tout le potentiel de notre approche multi-agent pour réaliser une médiation automatiquement, sans qu’il soit nécessaire de reconstruire les modèles de processus métier
Over the last few years, the advances in management science and information technology have transformed the business process management (BPM) discipline into an important topic for both industry and academy. BPM uses business processes as the means for improving the operational performance of organizations, and setting processes are at the heart of BPM allows linking together people, systems, and different organizations to deliver value to stakeholders. The target of our work is the family of BPM systems. A BPM system is a generic software system that is driven by explicit process designs to enact and manage operational business processes. Despite the wide range of topics addressed by the academy on business processes, there are still aspects not addressed by prior research. A particular problem in this regard is the mediation between BPM systems and humans. Human interaction in those systems follows a standard user interface based predominantly on work item lists and forms. Thus, there is little room for creativity for users. They have not only difficulties in enacting their processes but also for searching the most suitable one for their needs. It would be more efficient to let humans interact in natural language. However, process modeling languages are an insufficient means of capturing and representing the domain of discourse. The present thesis develops an original approach to agent dialog management for the problem of business process enactment. The overarching motivation for this work was to design a dialog model scalable to different domains. The model relies on domain and business process ontologies, and necessitates a minimum effort of adaptation on ontologies to improve the interaction. Results indicate the potential of our agent-based approach to generate natural language
31

Auvinet, Jean-Marie. "Interprétation, interactions et connaissances : artefacts et assistance aux opérateurs radio des salles d'information et de commandement." Paris 1, 2005. http://www.theses.fr/2005PA010009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sécurité publique exige efficacité et diminution des erreurs et des risques. L'interprétation des messages échangés au cours d'une intervention s'appuie à la fois sur des connaissances et sur des interactions. Mais les connaissances mise en œuvre sont difficiles à capitaliser et la sécurité publique se construit par un double mouvement individu-collectif selon la théorie de la structuration de Giddens. L'intervention policière, incertaine et rapide, ne peut se contenter d'un système expert. Le modèle interactionniste du sens éclaire les enjeux et difficultés d'une automatisation de l'interprétation. La signification des éléments des messages se dégage d'un processus de catégorisation. Le sens de l'intervention émerge de la succession des interlocutions par un processus de mutation sémantique qui donne tout son poids au global et au structurel. Les systèmes adaptatifs et les systèmes multi-agents ouvrent une voie à l'interprétation assistée par ordinateur. L'opérateur radio dialogue avec le monde virtuel que lui propose l'outil d'interprétation des interlocutions.
32

Boutillier, Pierre. "De nouveaux outils pour calculer avec des inductifs en Coq." Phd thesis, Université Paris-Diderot - Paris VII, 2014. http://tel.archives-ouvertes.fr/tel-01054723.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En ajoutant au lambda-calcul des structures de données algébriques, des types dépendants et un système de modules, on obtient un langage de programmation avec peu de primitives mais une très grande expressivité. L'assistant de preuve Coq s'appuie sur un tel langage (le CIC) à la sémantique particulièrement claire. L'utilisateur n'écrit pas directement de programme en CIC car cela est ardu et fastidieux. Coq propose un environnement de programmation qui facilite la tâche en permettant d'écrire des programmes incrémentalement grâce à des constructions de haut niveau plus concises. Typiquement, les types dépendants imposent des contraintes fortes sur les données. Une analyse de cas peut n'avoir à traiter qu'un sous-ensemble des constructeurs d'un type algébrique, les autres étant impossibles par typage. Le type attendu dans chacun des cas varie en fonction du constructeur considéré. L'impossibilité de cas et les transformations de type doivent être explicitement écrites dans les termes de Coq. Pourtant, ce traitement est mécanisable et cette thèse décrit un algorithme pour réaliser cette automatisation. Par ailleurs, il est nécessaire à l'interaction avec l'utilisateur de calculer des programmes du CIC sans faire exploser la taille syntaxique de la forme réduite. Cette thèse présente une machine abstraite conçu dans ce but. Enfin, les points fixes permettent une manipulation aisée des structure de données récursives. En contrepartie, il faut s'assurer que leur exécution termine systématiquement. Cette question sensible fait l'objet du dernier chapitre de cette thèse.
33

Chinaei, Hamid Reza. "Learning Dialogue POMDP Model Components from Expert Dialogues." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29690/29690.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un système de dialogue conversationnel doit aider les utilisateurs humains à atteindre leurs objectifs à travers des dialogues naturels et efficients. C'est une tache toutefois difficile car les langages naturels sont ambiguës et incertains, de plus le système de reconnaissance vocale (ASR) est bruité. À cela s'ajoute le fait que l'utilisateur humain peut changer son intention lors de l'interaction avec la machine. Dans ce contexte, l'application des processus décisionnels de Markov partiellement observables (POMDPs) au système de dialogue conversationnel nous a permis d'avoir un cadre formel pour représenter explicitement les incertitudes, et automatiser la politique d'optimisation. L'estimation des composantes du modelé d'un POMDP-dialogue constitue donc un défi important, car une telle estimation a un impact direct sur la politique d'optimisation du POMDP-dialogue. Cette thèse propose des méthodes d'apprentissage des composantes d'un POMDPdialogue basées sur des dialogues bruités et sans annotation. Pour cela, nous présentons des méthodes pour apprendre les intentions possibles des utilisateurs à partir des dialogues, en vue de les utiliser comme états du POMDP-dialogue, et l'apprendre un modèle du maximum de vraisemblance à partir des données, pour transition du POMDP. Car c'est crucial de réduire la taille d'état d'observation, nous proposons également deux modèles d'observation: le modelé mot-clé et le modelé intention. Dans les deux modèles, le nombre d'observations est réduit significativement tandis que le rendement reste élevé, particulièrement dans le modele d'observation intention. En plus de ces composantes du modèle, les POMDPs exigent également une fonction de récompense. Donc, nous proposons de nouveaux algorithmes pour l'apprentissage du modele de récompenses, un apprentissage qui est basé sur le renforcement inverse (IRL). En particulier, nous proposons POMDP-IRL-BT qui fonctionne sur les états de croyance disponibles dans les dialogues du corpus. L'algorithme apprend le modele de récompense par l'estimation du modele de transition de croyance, semblable aux modèles de transition des états dans un MDP (processus décisionnel de Markov). Finalement, nous appliquons les méthodes proposées à un domaine de la santé en vue d'apprendre un POMDP-dialogue et ce essentiellement à partir de dialogues réels, bruités, et sans annotations.
Spoken dialogue systems should realize the user intentions and maintain a natural and efficient dialogue with users. This is however a difficult task as spoken language is naturally ambiguous and uncertain, and further the automatic speech recognition (ASR) output is noisy. In addition, the human user may change his intention during the interaction with the machine. To tackle this difficult task, the partially observable Markov decision process (POMDP) framework has been applied in dialogue systems as a formal framework to represent uncertainty explicitly while supporting automated policy solving. In this context, estimating the dialogue POMDP model components is a signifficant challenge as they have a direct impact on the optimized dialogue POMDP policy. This thesis proposes methods for learning dialogue POMDP model components using noisy and unannotated dialogues. Speciffically, we introduce techniques to learn the set of possible user intentions from dialogues, use them as the dialogue POMDP states, and learn a maximum likelihood POMDP transition model from data. Since it is crucial to reduce the observation state size, we then propose two observation models: the keyword model and the intention model. Using these two models, the number of observations is reduced signifficantly while the POMDP performance remains high particularly in the intention POMDP. In addition to these model components, POMDPs also require a reward function. So, we propose new algorithms for learning the POMDP reward model from dialogues based on inverse reinforcement learning (IRL). In particular, we propose the POMDP-IRL-BT algorithm (BT for belief transition) that works on the belief states available in the dialogues. This algorithm learns the reward model by estimating a belief transition model, similar to MDP (Markov decision process) transition models. Ultimately, we apply the proposed methods on a healthcare domain and learn a dialogue POMDP essentially from real unannotated and noisy dialogues.
34

Benayoun, Vincent. "Analyse de dépendances ML pour les évaluateurs de logiciels critiques." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2014. http://tel.archives-ouvertes.fr/tel-01062785.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les logiciels critiques nécessitent l'obtention d'une évaluation de conformité aux normesen vigueur avant leur mise en service. Cette évaluation est obtenue après un long travaild'analyse effectué par les évaluateurs de logiciels critiques. Ces derniers peuvent être aidéspar des outils utilisés de manière interactive pour construire des modèles, en faisant appel àdes analyses de flots d'information. Des outils comme SPARK-Ada existent pour des sous-ensembles du langage Ada utilisés pour le développement de logiciels critiques. Cependant,des langages émergents comme ceux de la famille ML ne disposent pas de tels outils adaptés.La construction d'outils similaires pour les langages ML demande une attention particulièresur certaines spécificités comme les fonctions d'ordre supérieur ou le filtrage par motifs. Cetravail présente une analyse de flot d'information pour de tels langages, spécialement conçuepour répondre aux besoins des évaluateurs. Cette analyse statique prend la forme d'uneinterprétation abstraite de la sémantique opérationnelle préalablement enrichie par desinformations de dépendances. Elle est prouvée correcte vis-à-vis d'une définition formellede la notion de dépendance, à l'aide de l'assistant à la preuve Coq. Ce travail constitue unebase théorique solide utilisable pour construire un outil efficace pour l'analyse de toléranceaux pannes.
35

Fafiotte, Georges. "Multiprototypage d'un logiciel d'aide à la découverte de connaissances lexicales : cacao, environnement d'apprentissage assisté par ordinateur des caractères chinois." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement actuel, en TAO personnelle, d'environnements interactifs pour rédacteur monolingue conduit à modéliser des fonctions de documentation, d'autodocumentation, d'autoformation, de gestion de bases de connaissances personnelles, portant sur les propriétés linguistiques de la langue de travail. D'autre part, de nombreux Occidentaux se motivent pour la découverte et l'apprentissage autonome des idéogrammes utilisés à la fois en chinois, japonais et coréen écrits. Locuteurs ou scripteurs autochtones sont également intéressés par de tels composants. Dans ces contextes se situe notre contribution à la modélisation et au prototypage d'une base des propriétés lexicographiques des caractères chinois ― le projet «Apprentissage Assisté par Ordinateur des Caractères Chinois», dont les prototypes prennent l'acronyme CACAO. La base d'informations, structurée en hyperdocument, place l'utilisateur en situation d'exploration encyclopédique, lui permettant de se construire une vue progressive, différenciée, des propriétés des caractères: propriétés «hors-langue» (morphologie, sémantique universelle), propriétés «en-langue» ― spécifiques d'une langue, ici chinoise (phonétique, sémantique contextuelle, utilisations en composition…). Nous proposons un modèle conceptuel des propriétés des caractères à stocker dans la base de connaissances. La démarche retenue est celle d'un prototypage évolutif, en HyperCard. Une première maquette valide les options de l'interface-apprenant. Un prototypage en vraie grandeur (1026 caractères) affine ensuite certains choix fonctionnels. Des prototypages parallèles explorent également différentes vues (Base à Objets en LOOPS, SGBD sous Oracle, système à règles en Prolog) des fonctions principales: structuration de la base, navigation, recherche multicritère des caractères, observatoire de l'activité de l'utilisateur. Ce multiprototypage est aussi une contribution au développement d'environnements hétérogènes, multiplateforme, de production de logiciels didactiques. Nous souhaitons conduire sur CACAO des expérimentations didactiques, ouvertes sur la modélisation des comportements d'apprenants. Indépendamment du développement possible d'un produit à finalité didactique, le système réalisé constitue le socle applicatif d'une recherche sur les interfaces coopérants et les architectures d'assistants intelligents de découverte de connaissances
36

Ullah, Sehat. "Assistance multimodale pour l'interaction 3D collaborative : étude et analyse des performances pour le travail collaboratif." Phd thesis, Université d'Evry-Val d'Essonne, 2011. http://tel.archives-ouvertes.fr/tel-00562081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès récents dans le domaine de l'infographie et la capacité des ordinateurs personnels de rendre les scènes 3D réalistes ont permis de développer des environnements virtuels dans lesquels plusieurs utilisateurs peuvent co-exister et travailler ensemble pour atteindre un objectif commun. Ces environnements sont appelés Environnements Virtuels Collaboratifs (EVCs). Les applications potentielles des EVCs sont dans les domaines militaire, medical, l'assemblage, la conception assistee par ordinateur, la teleoperation, l'éducation, les jeux et les réseaux sociaux. Un des problemes liés aux EVCs est la faible connaissance des utilisateurs concernant l'état, les actions et les intentions de leur(s) collaborateur(s). Ceci reduit non seulement la performance collective, mais conduit également à des résultats non satisfaisants. En outre, les tâches collaboratives ou coopératives réalisées sans aide ou assistance, sont plus difficiles et plus sujettes aux erreurs. Dans ce travail de thèse, nous étudions l'influence de guides multi-modaux sur la performance des utilisateurs lors de tâches collaboratives en environnement virtuel (EV). Nous proposons un certain nombre de guides basés sur les modalites visuelle, auditive et haptique. Dans ce contexte, nous étudions leur qualité de guidage et examinons leur influence sur l'awareness, la co-presence et la coordination des utilisateurs pendant la réalisation des tâches. A cette effet, nous avons développé une architecture logicielle qui permet la collaboration de deux (peut être étendue à plusieurs utiliateurs) utilisateurs (distribués ou co-localisés). En utilisant cette architecture, nous avons développé des applications qui non seulement permettent un travail collaboratif, mais fournissent aussi des assistances multi-modales aux utilisateurs. Le travail de collaboration soutenu par ces applications comprend des tâches de type "Peg-in-hole", de télé-manipulation coopérative via deux robots, de télé-guidage pour l'écriture ou le dessin. Afin d'évaluer la pertinence et l'influence des guides proposés, une série d'expériences a ete effectuée au LISA (Laboratoire d'Ingénierie et Systemes Automatisés) à l'Université d'Angers et au Laboratoire IBISC (Informatique, Biologie Integrative et Systemes Complexes) à l'Université d'Evry. Dans ces expériences, les utilisateurs ont été invités à effectuer des tâches variées, dans des conditions différentes (avec et sans guides). L'analyse a été effectuée sur la base du temps de réalisation des tâches, des erreurs et de l'apprentissage des utilisateurs. Pour les évaluations subjectives des questionnaires ont été utilisés. Ce travail contribue de manière signicative au développement de systèmes collaboratifs pour la téléoperation, la simulation d'assemblage, l'apprentissage de gestes techniques, la rééducation, la conception assistée par ordinateur et le divertissement.
37

Leloup, Jérôme. "Le projet HM2PH, habitat modulaire et mobile pour personnes handicapées : spécification d'un espace de vie adapté pour personne en déficit d'autonomie." Tours, 2004. http://www.theses.fr/2004TOUR4055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
D'après les statistiques, le taux de personnes à mobilité réduite est en constante croissance. Un des problèmes majeurs concernant cette population est de trouver le meilleur moyen afin qu'elles puissent vivre dans leur foyer le plus longtemps possible. L'objectif du projet HM2PH, Habitat Modulaire et Mobile pour Personnes Handicapées, est de spécifier les fonctionnalités d'un espace de vie mobile, ouvert sur l'extérieur et adapté pour une personne handicapée, avec pour préoccupation majeure un accès à une autonomie accrue par l'utilisation de dispositifs appropriés (aides techniques, domitique. . . ). De plus, il doit pouvoir s'insérer aussi bien dans une strucutre d'accueil fortement médicalisée que dans un milieu familial. Afin de réaliser un tel habitat, il est nécessaire de faire appel à différents professionnels (architectes, médecins, ergothérapeutes. . . ), ce qui induit des temps et coûts de conception élevés. Afin de réduire cela, nous proposons un logiciel d'aide à la conception d'un habitat adapté. Composé de trois modules, ce logiciel permet d'abord d'analyser les déficiences et capacités du futur résident et de proposer une liste de matériel spécifique à mettre en oeuvre (aides techniques, équipements domotiques. . . ) pour compenser ses éventuels handicaps. Ensuite, il génère une série de plans créés automatiquement en suivant les règles architecturales (classiques et liées au domaine du handicap) et les désirs du futur résident. Enfin, un dernier module permet de visiter en temps réel une modélisation en 3D des plans générés précédemment, afin de tester et valider les équipements proposés et installés. L'évolution du projet et de nombreuses informations dans les domaines du handicap, des aides techniques, des réseaux et des nouvelles technologies sont disponibles sur http://www. Hant. Li. Univ-tours. Fr/webhant/HM2PH
According to the last statistics, the number of person with reduced mobility is constantly increasing. One of the main problems about this popultation is to find the best way to enable them to live at home as long as possible. The aim of the HM2PH project (in french Habitat Modulaire et Mobile pour Personnes Handicapées) is to specify the functionalities of a smart adapted and mobile living area that will give more autonomy to the resident by using specific devices (assistive technology, home automation. . . ). Moreover, this living area should be able to fit in a strongly medicalized facility as well as n a familial environment. In order to realise such a house, it'es necessary to ask for several professional skills (architect, doctors, occupational therapists. . . ), which leads to huge conception times and costs. To reduce this, we propose a software tool to help the creation of an adapted living area. Composed by three modules, this tool enables to first analyse the feficiencies and capabilities of the future resident and gives a list of several specific devices (assistive technologies, home automation devices. . . ) to use in order to compensate his eventual disabilities. Then it generates a set of layouts that are automatically created according to architecturales rules (classical rules and those linked to the disability) and to the resident's preferences. Finally the last module enable to visit at real time a 3D model of the layouts generated previously, in order to test and assess the different proposed and installed devices. The evolution of this project and much information about disability, assistive technology, networks and new technologies are available on the internet at http://www. Hant. Li. Univ-tours. Fr/webhant/HM2PH
38

Vidal, Jean-Philippe. "Assistance au calage de modèles numériques en hydraulique fluviale - Apports de l'intelligence artificielle." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00010185.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calage d'un modèle numérique vise à reproduire des événements de référence par l'ajustement de paramètres à base physique. Cette thèse propose une approche à l'aide de Systèmes à Base de Connaissances. Après une définition des concepts clés, sont présentés un état de l'art et une analyse des différents objets, procédures et raisonnements mis en oeuvre pour mener à bien cette tâche. Ces éléments sont formalisés puis intégrés au sein d'un système d'assistance au calage, selon trois niveaux de connaissances : génériques, propres à l'hydraulique fluviale 1-D, et spécifiques au code de calcul utilisé. Deux cas réels d'application sont traités, en fonction des données disponibles et de l'objectif projeté du modèle. La thèse a permis la capitalisation d'un savoir-faire qui a conduit à un prototype opérationnel d'assistance au calage de modèles hydrauliques et au développement d'outils d'intelligence artificielle dédiés au calage et indépendants de la discipline considérée.
39

Ly, Kim Quyen. "Automated verification of termination certificates." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM036/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
S'assurer qu'un programme informatique se comporte bien, surtout dans des applications critiques (santé, transport, énergie, communications, etc.) est de plus en plus important car les ordinateurs et programmes informatiques sont de plus en plus omniprésents, voir essentiel au bon fonctionnement de la société. Mais comment vérifier qu'un programme se comporte comme prévu, quand les informations qu'il prend en entrée sont de très grande taille, voire de taille non bornée a priori ? Pour exprimer avec exactitude ce qu'est le comportement d'un programme, il est d'abord nécessaire d'utiliser un langage logique formel. Cependant, comme l'a montré Gödel dans, dans tout système formel suffisamment riche pour faire de l'arithmétique, il y a des formules valides qui ne peuvent pas être prouvées. Donc il n'y a pas de programme qui puisse décider si toute propriété est vraie ou fausse. Cependant, il est possible d'écrire un programme qui puisse vérifier la correction d'une preuve. Ce travail utilisera justement un tel programme, Coq, pour formellement vérifier la correction d'un certain programme. Dans cette thèse, nous expliquons le développement d'une nouvelle version de Rainbow, plus rapide et plus sûre, basée sur le mécanisme d'extraction de Coq. La version précédente de Rainbow vérifiait un certificat en deux étapes. Premièrement, elle utilisait un programme OCaml non certifié pour traduire un fichier CPF en un script Coq, en utilisant la bibliothèque Coq sur la théorie de la réécriture et la terminaison appelée CoLoR. Deuxièmement, elle appelait Coq pour vérifier la correction du script ainsi généré. Cette approche est intéressante car elle fournit un moyen de réutiliser dans Coq des preuves de terminaison générée par des outils extérieurs à Coq. C'est également l'approche suivie par CiME3. Mais cette approche a aussi plusieurs désavantages. Premièrement, comme dans Coq les fonctions sont interprétées, les calculs sont beaucoup plus lents qu'avec un langage où les programmes sont compilés vers du code binaire exécutable. Deuxièmement, la traduction de CPF dans Coq peut être erronée et conduire au rejet de certificats valides ou à l'acceptation de certificats invalides. Pour résoudre ce deuxième problème, il est nécessaire de définir et prouver formellement la correction de la fonction vérifiant si un certificat est valide ou non. Et pour résoudre le premier problème, il est nécessaire de compiler cette fonction vers du code binaire exécutable. Cette thèse montre comment résoudre ces deux problèmes en utilisant l'assistant à la preuve Coq et son mécanisme d'extraction vers le langage de programmation OCaml. En effet, les structures de données et fonctions définies dans Coq peuvent être traduits dans OCaml et compilées en code binaire exécutable par le compilateur OCaml. Une approche similaire est suivie par CeTA en utilisant l'assistant à la preuve Isabelle et le langage Haskell
Making sure that a computer program behaves as expected, especially in critical applications (health, transport, energy, communications, etc.), is more and more important, all the more so since computer programs become more and more ubiquitous and essential to the functioning of modern societies. But how to check that a program behaves as expected, in particular when the range of its inputs is very large or potentially infinite? In this work, we explain the development of a new, faster and formally proved version of Rainbow based on the extraction mechanism of Coq. The previous version of Rainbow verified a CPF le in two steps. First, it used a non-certified OCaml program to translate a CPF file into a Coq script, using the Coq libraries on rewriting theory and termination CoLoR and Coccinelle. Second, it called Coq to check the correctness of the script. This approach is interesting for it provides a way to reuse in Coq termination proofs generated by external tools. This is also the approach followed by CiME3. However, it suffers from a number of deficiencies. First, because in Coq functions are interpreted, computation is much slower than with programs written in a standard programming language and compiled into binary code. Second, because the translation from CPF to Coq is not certified, it may contain errors and either lead to the rejection of valid certificates, or to the acceptance of wrong certificates. To solve the latter problem, one needs to define and formally prove the correctness of a function checking whether a certificate is valid or not. To solve the former problem, one needs to compile this function to binary code. The present work shows how to solve these two problems by using the proof assistant Coq and its extraction mechanism to the programming language OCaml. Indeed, data structures and functions de fined in Coq can be translated to OCaml and then compiled to binary code by using the OCaml compiler. A similar approach was first initiated in CeTA using the Isabelle proof assistant
40

Sun, Yudong. "Résolution de problèmes dans l'espace d'états avec abstraction de concepts : Le système oasis." Nancy 1, 1989. http://www.theses.fr/1989NAN10089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système expert OASIS est un système d'élaboration des chemins de synthèse en chimie organique. Nous avons d'abord développé un modèle général de représentation de problèmes - le modèle de l'espace d'états avec abstration de concepts - qui est un affinement de la notion d'espace d'états classique en y introduisant un niveau de concepts d'abstraction de plus par rapport au niveau des concepts de base. Ce modèle décrit le domaine d'un problème donné en trois parties
41

Herms, Paolo. "Certification of a Tool Chain for Deductive Program Verification." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00789543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis belongs to the domain of software verification. The goalof verifying software is to ensure that an implementation, a program,satisfies the requirements, the specification. This is especiallyimportant for critical computer programs, such as control systems forair planes, trains and power plants. Here a malfunctioning occurringduring operation would have catastrophic consequences. Software requirements can concern safety or functioning. Safetyrequirements, such as not accessing memory locations outside validbounds, are often implicit, in the sense that any implementation isexpected to be safe. On the other hand, functional requirementsspecify what the program is supposed to do. The specification of aprogram is often expressed informally by describing in English or someother natural language the mission of a part of the program code.Usually program verification is then done by manual code review,simulation and extensive testing. But this does not guarantee that allpossible execution cases are captured. Deductive program proving is a complete way to ensure soundness of theprogram. Here a program along with its specificationis a mathematical object and its desired properties are logicaltheorems to be formally proved. This way, if the underlying logicsystem is consistent, we can be absolutely sure that the provenproperty holds for the program in any case.Generation of verification conditions is a technique helpingthe programmer to prove the properties he wants about his programs.Here a VCG tool analyses a program and its formal specification andproduces a mathematical formula, whose validity implies the soundnessof the program with respect to its specification. This is particularlyinteresting when the generated formulas can be proved automatically byexternal SMT solvers.This approach is based on works of Hoare and Dijkstra and iswell-understood and shown correct in theory. Deductive verificationtools have nowadays reached a maturity allowing them to be used inindustrial context where a very high level of assurance isrequired. But implementations of this approach must deal with allkinds of language features and can therefore become quite complex andcontain errors -- in the worst case stating that a program correcteven if it is not. This raises the question of the level ofconfidence granted to these tools themselves. The aim of this thesis is to address this question. We develop, inthe Coq system, a certified verification-condition generator (VCG) forACSL-annotated C programs.Our first contribution is the formalisation of an executableVCG for the Whycert intermediate language,an imperative language with loops, exceptions and recursive functionsand its soundness proof with respect to the blocking big-step operational semantics of the language.A second contribution is the formalisation of the ACSL logicallanguage and the semantics of ACSL annotations of Compcert's Clight.From the compilation of ACSL annotated Clight programs to Whycertprograms and its semantics preservation proof combined with a Whycertaxiomatisation of the Compcert memory model results our maincontribution: an integrated certified tool chainfor verification of C~programs on top of Compcert. By combining oursoundness result with the soundness of the Compcert compiler we obtaina Coq theorem relating the validity of the generated proof obligationswith the safety of the compiled assembly code.
42

Delouette, Ilona. "Une analyse d’économie institutionnaliste du financement de la prise en charge de la dépendance : D’un risque social à un risque positif." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1A002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre thèse porte sur le financement de la prise en charge de la dépendance des personnes âgées en France. Comme problématique spécifique de protection sociale, la « dépendance » apparaît avec le rapport Arreckz (1979) où émerge l’idée de créer un 5e risque de Sécurité sociale. Pourtant, la prise en charge a toujours fait l’objet d’une superposition de dispositifs, pensés en dehors de la Sécurité sociale, et qui se sont toujours avérés insuffisants pour couvrir les besoins sociaux. Nous réalisons une analyse d’économie politique institutionnaliste ancrée dans la Théorie de régulation et plus particulièrement dans l’approche des systèmes nationaux de protection sociale de B. Théret. La prise en charge de la dépendance est appréhendée comme un sous-système de protection sociale, soit comme un médium de reproduction pour les sphères économique, politique et domestique, qui s’appuient sur une symbolique commune. Nous étudions les mutations de cette symbolique, et les rapports de pouvoirs qui l’influencent pour comprendre les évolutions du système de financement de la dépendance. Au sein de la symbolique, nous nous intéressons particulièrement à la mobilisation de la catégorie du risque et de l’assurance. Cette dernière, largement mobilisée dans le champ de la dépendance, est aussi au cœur de la symbolique de la protection sociale française. Notre démarche d’enquête s’appuie sur des observations de groupes de réflexions sur la question du financement de la dépendance, des entretiens semi-directifs auprès des acteurs « clés » du champ, ainsi que sur une analyse linguistique et historique des rapports publics sur le sujet à partir du logiciel Prospéro (Doxa). Nous montrons que depuis 1979, la dépendance a été appréhendée comme un risque social (1979-1997), puis comme un risque de protection sociale (1997-2007), et enfin comme un risque prévisible et positif (2008-2015). La catégorie du risque et de l’assurance est de plus en plus enchâssée dans un discours gestionnaire et économiciste au sein de la symbolique de la protection sociale. Ces mutations justifient le passage de financements définis au sein du partage primaire de la valeur ajoutée à des financements reposant sur la redistribution secondaire. Ainsi, si la catégorie du risque est sans cesse mobilisée depuis les années 1970, elle ne permet pas de justifier un financement du champ à la hauteur des enjeux. Au contraire, depuis les années 2000, compte de tenu des rapports de pouvoirs qui s’opèrent dans le champ, elle justifie la privatisation de ses financements
This doctoral dissertation focuses on the funding of care for elderly dependent persons in France. “Dependency” was not considered as a specific social protection issue until the Arreckz report (1979) in which emerges the idea of creating a 5th social security risk. However, care has always been the subject of overlapping schemes designed independently of social security. These schemes have always proved insufficient to cover social needs. We carry out an institutionalist political economy analysis rooted in the Régulation Theory, and more specifically in B. Théret's approach of national systems of social protection. The care of dependency is understood as a sub-system of social protection, i.e. as a means of reproduction of the economic, political, and domestic spheres which are supported by a shared symbolism. In order to understand the evolutions of the dependency’s funding system, we study the changes of this symbolism and the power relations that influence it. Within this symbolism we are specifically interested in the increasing use of the category of risk and insurance. This category widely used in the field of dependency is also at the core of the symbolism of French social protection. Our research is based on the analysis of observations made by think-tanks concerning the funding of dependency; on semi-directive interviews of “key” players in the field; and on a linguistic and historical analysis of public reports using the software Prospéro (Doxa). We demonstrate that since 1979, dependency has been understood as a social risk (1979-1997), then as a social protection risk (1997-2007), and finally as a predictable and positive risk (2008-2015). Within the symbolism of social protection, the category of risk and insurance is increasingly embedded in managerial and economic discourse. These changes justify the transition from funding defined within the primary share of the value added to funding relying on secondary redistribution. Thus, although the risk category has been used constantly since the 1970s, it does not justify the funding of the field commensurate with the stakes involved. On the contrary, since the 2000s onwards, in view of the power relations prevailing in the field, the category of risk has justified the privatisation of its funding
43

Ginon, Blandine. "Modèles et outils génériques pour mettre en place des systèmes d’assistance épiphytes." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0080/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse en informatique se situe plus particulièrement dans le domaine de l’ingénierie des connaissances. Elle concerne la mise en place a posteriori de systèmes d’assistance dans des applications existantes, en adoptant une démarche générique. Afin de permettre la mise en place de systèmes d’assistance dans des applications existantes sans avoir à les redévelopper ni à accéder à leur code source, nous avons choisi d’adopter une démarche entièrement épiphyte. Nous avons proposé un processus d’adjonction d’un système d’assistance à une application-cible de manière épiphyte. Il est constitué de deux phases : la spécification et l’exécution de l’assistance. La phase de spécification de l’assistance permet à un expert, le concepteur de l’assistance, de représenter ses connaissances relatives à l’application-cible et à l’assistance qu’il souhaite mettre en place dans celle-ci. La phase d’exécution de l’assistance exploite ces connaissances pour fournir aux utilisateurs finaux l’assistance souhaitée par le concepteur. Pour permettre d’une part la spécification de l’assistance par un concepteur potentiellement non-informaticien, et d’autre part l’exécution automatique de l’assistance spécifiée, nous avons proposé un langage pivot : aLDEAS. Ce langage graphique permet de définir des systèmes d’assistance très variés sous la forme d’un ensemble de règles. Nos propositions théoriques ont été mises en oeuvre de façon opérationnelle à travers le système SEPIA, constitué de différents outils. L’éditeur d’assistance de SEPIA est destiné aux concepteurs d’assistance et met en oeuvre la phase de spécification de l’assistance. Il fournit aux concepteurs d’assistance une interface pour manipuler les éléments du langage aLDEAS, afin de définir un système d’assistance sous la forme d’un ensemble de règles aLDEAS. Les systèmes d’assistance aLDEAS peuvent ensuite être exécutés par le moteur générique d’assistance qui met en oeuvre la phase d’exécution de l’assistance. Il permet de fournir l’assistance ainsi définie aux utilisateurs finaux des applications-cibles. Pour cela, le moteur d’assistance s’appuie sur différents outils épiphytes, pour surveiller et inspecter l’application-cible, ainsi que pour réaliser les actions d’assistance pour l’utilisateur final. Bien que mettant en oeuvre des modèles génériques, le système SEPIA permet de mettre en place de l’assistance finement contextualisée et adaptée aux spécificités, d’une part de l’application-cible, et d’autre part des utilisateurs finaux
This thesis in computer science is situated more particulary in the field of knowledge engineering. It concerns the a posteriori setup of assistance systems in existing applications, while having a generic approach. In order to setup the setup of assistance systems in existing applications without a need to redevelop it or to access its source code, we choose to have a fully epiphytic approach. We proposed a adjunction process of an assistance system to a target-application with a epiphytic manner. It is constituted of two phases: the specification and the execution of the assistance. The assistance specification phase enables an expert, the assistance designer, to represent his knowledge relative to the target-application and to the assistance that he wishes to setup. The assistance execution phase uses this knowledge to provide the target-application end-users with the assistance wished by the designer. To make possible on the one hand the assistance specification by an assistance designer potentially non-computer scientist, and one the second hand the automatic execution of the specified assistance, we propose a pivot language: aLDEAS. This graphical language makes possible the definition of very varied assistance systems, with the shape of a set of rules. Our theoretical propositions have been implemented through the SEPIA system, constituted of different tools. The SEPIA assistance editor is aimed at assistance designers, and it implemented the assistance specification phase. It provided the assistance designers with an interface to handle aLDEAS elements in order to define assistance rules. These rules can then be executed by the SEPIA generic assistance engine, which implements the assistance execution phase. It provides the target-application end-users with the specified assistance. For this purpose, the assistance engine manages different epiphytic tools, in order to monitor and inspect the target-application, and to perform the assistance actions. The models implemented through the SEPIA system are generic, but it make possible the setup of assistance systems specifically suited on the one hand to their target-application, and on the second hand to the end-users
44

Jomaa, Narjes. "Le co-design d’un noyau de système d’exploitation et de sa preuve formelle d’isolation." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I075/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous proposons un nouveau concept de noyau adapté à la preuve que nous avons appelé « proto-noyau ». Il s’agit d’un noyau de système d’exploitation minimal où la minimisation de sa taille est principalement motivée par la réduction du coût de la preuve mais aussi de la surface d’attaque. Ceci nous amène à définir une nouvelle stratégie de « co-design » du noyau et de sa preuve. Elle est fondée principalement sur les feedbacks entre les différentes phases de développement du noyau, allant de la définition des besoins jusqu’à la vérification formelle de ses propriétés. Ainsi, dans ce contexte nous avons conçu et implémenté le proto-noyau Pip. L’ensemble de ses appels système a été choisi minutieusement pendant la phase de conception pour assurer à la fois la faisabilité de la preuve et l’utilisabilité du système. Le code de Pip est écrit en Gallina (le langage de spécification de l’assistant de preuve Coq) puis traduit automatiquement vers le langage C. La propriété principale étudiée dans ces travaux est une propriété de sécurité, exprimée en termes d’isolation mémoire. Cette propriété a été largement étudiée dans la littérature de par son importance. Ainsi, nos travaux consistent plus particulièrement à orienter le développement des concepts de base de ce noyau minimaliste par la vérification formelle de cette propriété. La stratégie de vérification a été expérimentée, dans un premier temps, sur un modèle générique de micro-noyau que nous avons également écrit en Gallina. Par ce modèle simplifié de micro-noyau nous avons pu valider notre approche de vérification avant de l’appliquer sur l’implémentation concrète du proto-noyau Pip
In this thesis we propose a new kernel concept adapted to verification that we have called protokernel. It is a minimal operating system kernel where the minimization of its size is motivated by the reduction of the cost of proof and of the attack surface. This leads us to define a new strategy of codesign of the kernel and its proof. It is based mainly on the feedbacks between the various steps of development of the kernel, ranging from the definition of its specification to the formal verification of its properties. Thus, in this context we have designed and implemented the Pip protokernel. All of its system calls were carefully identified during the design step to ensure both the feasibility of proof and the usability of the system. The code of Pip is written in Gallina (the specification language of the Coq proof assistant) and then automatically translated into C code. The main property studied in this work is a security property, expressed in terms of memory isolation. This property has been largely discussed in the literature due to its importance. Thus, our work consists more particularly in guiding the developer to define the fundamental concepts of this minimalistic kernel through the formal verification of its isolation property. The verification strategy was first experimented with a generic microkernel model that we also wrote in Gallina. With this simplified microkernel model we were able to validate our verification approach before applying it to the concrete implementation of the Pip protokernel
45

Saunier, Camille, and Camille Saunier. "La protection des données personnelles des utilisateurs d'enceintes connectées «intelligentes» par le Règlement européen no 2016/679, le droit canadien et le droit québécois : approche comparatiste." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/38291.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail de recherche porte sur la protection des renseignements personnels des utilisateurs d’enceintes connectées « intelligentes ». Au regard de cet objet connecté particulier, l’étude se penchera sur la manière dont la protection des données personnelles est envisagée par le Règlement européen n°2016/679 (RGPD), la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et la Loi québécoise sur la protection des renseignements personnels dans le secteur privé (LPRPSP) tout au long du cycle de vie de la donnée. Ces différentes législations divergent tant sur leurs dates d’adoption que sur leurs systèmes juridiques. Pourtant, les rapports de faits qui les animent en font une des objets de comparaison particulièrement intéressants. Il ressort de cette étude que l’enceinte connectée « intelligente » met en évidence les insuffisances des législations étudiées vis-à-vis du rapport au temps, de la masse de données collectées mais aussi de l’opacité de la machine.
Le présent travail de recherche porte sur la protection des renseignements personnels des utilisateurs d’enceintes connectées « intelligentes ». Au regard de cet objet connecté particulier, l’étude se penchera sur la manière dont la protection des données personnelles est envisagée par le Règlement européen n°2016/679 (RGPD), la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) et la Loi québécoise sur la protection des renseignements personnels dans le secteur privé (LPRPSP) tout au long du cycle de vie de la donnée. Ces différentes législations divergent tant sur leurs dates d’adoption que sur leurs systèmes juridiques. Pourtant, les rapports de faits qui les animent en font une des objets de comparaison particulièrement intéressants. Il ressort de cette étude que l’enceinte connectée « intelligente » met en évidence les insuffisances des législations étudiées vis-à-vis du rapport au temps, de la masse de données collectées mais aussi de l’opacité de la machine.
46

BENMANSOUR-BEKHTI, FATIMA. "Interfacage d'un potentiostat avec un micro-ordinateur en vue de la mesure des impedances electrochimiques." Université Louis Pasteur (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR13076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Rozot, Roger. "Facteurs électroniques et reconnaissance de formes en CAO de molécules pharmacologiquement actives : application à la famille des benzodiazépines." Nancy 1, 1988. http://www.theses.fr/1988NAN10215.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un nouveau logiciel, SARAH, alliant intelligence artificielle et méthode d'analyse statistique, a été mis au point. Il a pour objectif d'aider le chimiste à concevoir des molécules pharmacologiquement actives. Le principe de ce programme est le suivant : en se basant sur l'analyse traditionnelle du chimiste observant des processus biologiques, il réalise un apprentissage du concept d'activité à partir d'exemples répartis en deux classes : les molécules actives et les molécules inactives. La connaissance apprise n'est pas figée, mais au contraire peut être remise en cause ou affinée par l'apport de nouvelles données biologiques. Les résultats obtenus lors de l'application à la famille des benzodiazépines-1,4 sont en accord avec les données expérimentales et ont montré la faiblesse des méthodes classiques d'analyse de données
48

Bernard, Christophe. "Vers une gestion informatisée des cahiers de laboratoire : Le système "MANIP"." Nancy 1, 1989. http://www.theses.fr/1989NAN10006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Réalisation d'un logiciel pour des chimistes permettant la saisie de données concernant la mise en oeuvre de réactions chimiques et l'uniformatisation des cahiers de manipulation. Cette base de données, pouvant être exploitée dans sa totalité. Le logiciel est écrit en turbo pascal et implémenté sur un microordinateur
49

Mille, Alain. "Raisonnement basé sur l'expérience pour coopérer à la prise de décision : un nouveau paradigme en supervision industrielle." Saint-Etienne, 1995. http://www.theses.fr/1995STET4016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'opérateur chargé de superviser un système industriel complexe exploite les possibilités offertes par l'environnement informatique à sa disposition qui collecte les données, synthétise et illustre la situation courante sur les écrans de contrôle. Il doit choisir quels sont les tableaux de bord les plus pertinents et utiles pour gérer chaque situation qui se présente. Ce choix est une décision déterminante pour gérer les évolutions et les incidents et doit être remis en cause dès que la situation évolue sensiblement. Le sujet de la thèse est de définir comment utiliser le système informatique pour aider efficacement l'opérateur dans ce processus décisionnel. La mise au point d'un atelier logiciel pour générer et exploiter des systèmes de supervisions d'une nouvelle génération est l'objet industriel du travail de recherche. Les résultats de la recherche en psychologie cognitive sont exploités pour proposer un nouveau paradigme de supervision correspondant au processus de décision de l'opérateur sur la base de son expérience ou sur celle de ses collègues. L'expérience n'intervient pas seule, elle est contrôlée par les connaissances structurées disponibles sur le système à superviser. Le système informatique utilise ces connaissances comme des modèles pour comparer des situations similaires et proposer des adaptations possibles à un nouveau contexte. Les connaissances sur l'expérience (les cas de supervision) sont distinguées des connaissances sur le système (la théorie du domaine), mais sont insérées dans un réseau dense de relations permettant de naviguer du cas à la théorie et l'inverse. L'exploitation de ces connaissances repose en effet sur la capacité à mettre en relation les modèles avec l'expérience concrète de l'opérateur. Le principe général que nous proposons d'adopter à différents stades de la décision, est d'associer la connaissance mise en évidence par les modèles avec l'expérience acquise par les acteurs de la résolution de problème. Le cadre de la supervision industrielle se prête particulièrement bien au développement de cette idée, dans la mesure où l'opérateur reste l'acteur principal dans cette tâche et qu'il est guidé dans ses décisions par les modèles disponibles sur ses écrans de contrôle et par sa propre expérience. La théorie du domaine est dérivée des modèles habituels utilisés en conception de système (modèles fonctionnels, structurels, etc. ). Des mécanismes génériques sont proposés pour comparer des situations sur la base de similarité conceptuelle et événementielle, pour apparier des descriptions et des solutions par la similarité de leurs explications, pour adapter une solution au contexte en utilisant les explications comme guide et enfin de garder après validation les cas de supervision nouveaux qui pourront être réutilisés. Au-delà du domaine de la supervision industrielle, les concepts développés dans ce travail semblent pouvoir s'appliquer à de nombreuses circonstances où un operateur est en situation de décider quels sont les tableaux de bord les plus pertinents à réunir dans une situation donnée
50

Lasson, Marc. "Réalisabilité et paramétricité dans les systèmes de types purs." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00770669.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'adaptation de la réalisabilité et la paramétricité au cas des types dépendants dans le cadre des Systèmes de Types Purs. Nous décrivons une méthode systématique pour construire une logique à partir d'un langage de programmation, tous deux décrits comme des systèmes de types purs. Cette logique fournit des formules pour exprimer des propriétés des programmes et elle offre un cadre formel adéquat pour développer une théorie de la réalisabilité au sein de laquelle les réalisateurs des formules sont exactement les programmes du langage de départ. Notre cadre permet alors de considérer les théorèmes de représentation pour le système T de Gödel et le système F de Girard comme deux instances d'un théorème plus général.Puis, nous expliquons comment les relations logiques de la théorie de la paramétricité peuvent s'exprimer en terme de réalisabilité, ce qui montre que la logique engendrée fournit un cadre adéquat pour développer une théorie de la paramétricité du langage de départ. Pour finir, nous montrons comment cette théorie de la paramétricité peut-être adaptée au système sous-jacent à l'assistant de preuve Coq et nous donnons un exemple d'application original de la paramétricité à la formalisation des mathématiques.

To the bibliography