To see the other types of publications on this topic, follow the link: Machine de langage de haut niveau.

Dissertations / Theses on the topic 'Machine de langage de haut niveau'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 42 dissertations / theses for your research on the topic 'Machine de langage de haut niveau.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Park, Seung Kyu Schoellkopf J. P. "Etude de langages interprétables par une machine langage de haut niveau." S. l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00300432.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Dusina, Julia. "Vérification formelle des résultats de la synthèse de haut niveau." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10171.

Full text
Abstract:
Pour satisfaire la demande du marche actuel, plusieurs outils commerciaux de verification formelle sont apparus ces dernieres annees. Le niveau le plus abstrait de description accepte dans la plupart de ces outils est le niveau appele transfert de registres, c'est-a-dire une description avec des cycles d'horloge explicitement definis. Pour rester competitifs, neanmoins, les concepteurs sont obliges d'elever le niveau d'abstraction et commencent a utiliser des outils de synthese de haut niveau. Cette these a pour objet la verification formelle des resultats de synthese de haut niveau par rapport a la specification initiale decrite en vhdl. Nous proposons une methodologie de verification qui epouse le flot de conception et consiste en la verification de deux etapes principales : l'ordonnancement et l'allocation. La verification de chaque etape est fondee sur un modele de machine abstraite que nous avons defini : contrairement au modele de machine d'etats finis classique, il reduit considerablement l'espace d'etats d'ou les registres de la partie operative sont exclus. En outre, la machine abstraite est similaire aux descriptions vhdl utilisees lors de la synthese et offre, par consequent, un niveau d'abstraction plus eleve de representation des circuits. La preuve d'equivalence entre la machine abstraite et la machine d'etats finis classique justifie la premiere et constitue une des contributions theoriques de la these. Un prototype d'outil base sur la simulation symbolique a ete developpe et execute sur des benchmarks de la synthese comportementale. La these s'acheve sur les problemes ouverts et les axes de recherche a explorer.
APA, Harvard, Vancouver, ISO, and other styles
3

Varoumas, Steven. "Modèles de programmation de haut niveau pour microcontrôleurs à faibles ressources." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS394.

Full text
Abstract:
Les microcontrôleurs sont des circuits imprimés programmables nichés dans de nombreux objets de notre quotidien. En raison de leurs ressources limitées, ils sont souvent programmés dans des langages de bas niveau comme le C, ou en langage assembleur. Ces derniers n'offrent pas les mêmes abstractions et les mêmes garanties que des langages de haut niveau, comme OCaml. Cette thèse propose alors un ensemble de solutions destinées à enrichir la programmation de microcontrôleurs avec des paradigmes de programmation de plus haut niveau. Ces solutions apportent une montée en abstraction progressive, permettant notamment de réaliser des programmes indépendants du matériel utilisé. Nous présentons ainsi une première abstraction du matériel prenant la forme d’une machine virtuelle OCaml, qui permet de profiter des nombreux avantages du langage tout conservant une faible empreinte mémoire. Nous étendons par la suite OCaml avec un modèle de programmation synchrone inspiré du langage Lustre et permettant d'abstraire les aspects concurrents d’un programme. Une spécification formelle du langage est donnée, et plusieurs propriétés de typage sont par la suite vérifiées. Les abstractions offertes par nos travaux induisent par ailleurs la portabilité de certaines analyses statiques pouvant être réalisées sur le bytecode des programmes. Une telle analyse, servant à estimer le temps d’exécution pire-cas d’un programme synchrone, est alors proposée. L'ensemble des propositions de cette thèse constitue une chaîne complète de développement, et plusieurs exemples d’applications concrètes illustrant l'intérêt des solutions offertes sont alors présentées<br>Microcontrollers are programmable integrated circuit embedded in multiple everyday objects. Due to their scarce resources, they often are programmated using low-level languages such as C or assembly languages. These languages don't provide the same abstractions and guarantees than higher-level programming languages, such as OCaml. This thesis offers a set of solutions aimed at extending microcontrollers programming with high-level programming paradigms. These solutions provide multiple abstraction layers which, in particular, enable the development of portable programs, free from the specifics of the hardware. We thus introduce a layer of hardware abstraction through an OCaml virtual machine, that enjoys the multiple benefits of the language, while keeping a low memory footprint. We then extend the OCaml language with a synchronous programming model inspired from the Lustre dataflow language, which offers abstraction over the concurrent aspects of a program. The language is then formally specified and various typing properties are proven. Moreover, the abstractions offered by our work induce portability of some static analyses that can be done over the bytecode of programs. We thus propose such an analysis that consists of estimating the worst case execution time (WCET) of a synchronous program. All the propositions of this thesis form a complete development toolchain, and several practical examples that illustrate the benefits of the given solutions are thus provided
APA, Harvard, Vancouver, ISO, and other styles
4

Bruni, Camillo. "Towards self-aware virtual machines." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10021/document.

Full text
Abstract:
Les langages de haut-niveau supportent des opérations réflectives qui permettent à l’environnement d’exécution d’un langage d’inspecter et de changer son propre état et sa propre exécution. Ces langages de haut-niveau s’exécutent normalement sur une machine virtuelle (VM) qui ajoute une couche d’abstraction au-dessus du matériel. À cause de cette séparation, peu d’opérations réflectives sont disponibles pour inspecter et modifier la VM. Plusieurs VMs expérimentales offrent de telles opérations réflectives en proposant un modèle unifié qui ne distingue pas la couche VM de la couche langage. Dans cette thèse, nous suivons une approche similaire qui propose un environnement d’exécution unifié et auto-décrit. Nous nous intéressons à une solution minimale. Au lieu de dépendre de modifications d’une VM, nous générons dynamiquement du code natif depuis la couche langage. Nous présentons Benzo, un framework pour la génération dynamique de code natif. Benzo fournit une interface générique et de bas-niveau pour accéder aux fonctionnalités fondamentales de la VM. Grâce à Benzo, nous analysons plusieurs applications qui nécessitent un accès direct à la VMM. Nous montrons comment Benzo peut être utilisé pour implémenter une librairie de Foreign Function Interfaces, permettant de faciliter l’accès aux fonctionnalités bas-niveau de la VM. Pour évaluer les limitations de Benzo, nous visons deux autres applications: la génération dynamique de primitive et un compilateur JIT (Just-In-Time). Ces deux applications doivent changer le comportement de la VM. Pour cela, elles ont besoin d’une interaction poussée avec la VM<br>High-level languages implement reflection which allows a language runtime to inspect and alter its own execution and state. These high-level languages typically run on top of virtual machines (VMs) which have been built to create an abstraction layer over hardware. Due to the isolating nature of the VM, reflection is generally limited to the language-side. Several research VMs overcome this limitation and provide a unified model where there is no more a clear distinction between language-side and VM-side. In such a language runtime it is possible to reflectively modify VM components from language-side as they reside on the same abstraction layer. In this dissertation we follow the same global direction towards a unified language-runtime and self-aware VM. However, instead of looking for a holistic solution we focus on a minimal approach. Instead of using a custom tailored language runtime we use dynamic native code activation from language-side on top of an existing VM. We first present Benzo our framework for dynamic native code activation. Benzo provides a generic but low-level interface to the VM internals. Based on this framework we then evaluate several applications that typically require direct VM support. We show first how Benzo is used to build an efficient Foreign Function Interface, allowing for a more structured access to VM internal functions. To evaluate the limitations of Benzo we target two more applications: dynamic primitives and a language-side JIT compiler. Both of them require a tight interaction with the underlying VM
APA, Harvard, Vancouver, ISO, and other styles
5

Ciabrini, Damien. "Débogage symbolique multi-langages pour les plates-formes d'exécution généralistes." Phd thesis, Université de Nice Sophia-Antipolis, 2006. http://tel.archives-ouvertes.fr/tel-00122789.

Full text
Abstract:
Cette thèse est consacrée à l'amélioration des débogueurs symboliques pour tenir compte des spécificités des langages de haut niveau, notamment leur compilation délicate vers des plates-formes d'exécution généralistes. Ces travaux ont conduit à la réalisation de Bugloo, un débogueur multi-langages pour la machine virtuelle Java. <br /><br />Deux nouveaux mécanismes de représentations virtuelles sont proposés pour éliminer les perturbations de débogage dues à la présence sur la pile de fonctions intermédiaires produites par la compilation des langages de haut niveau. Le premier utilise des règles fournies par les implanteurs de langage pour maintenir une correspondance entre le code source d'un programme et le code produit par sa compilation. Cela permet au débogueur de reconstruire une vue logique dans laquelle les détails de compilation ont été expurgés. Le second mécanisme sert à contrôler l'exécution pas-à-pas, afin de ne jamais s'arrêter dans les fonctions intermédiaires engendrées par le compilateur. Ces deux mécanismes ont été adaptés pour réaliser un profileur d'allocation mémoire produisant des statistiques dans lesquelles les fonctions intermédiaires sont masquées. <br /><br />Durant ces travaux, un support de débogage complet a été développé pour le langage Bigloo, un dialecte du langage fonctionnel Scheme. Des expérimentations similaires ont étés menées sur les langages ECMAScript et Python. Les résultats obtenus montrent que les techniques de représentations virtuelles développées s'appliquent efficacement quel que soit le schéma de compilation adopté, y compris lorsque les programmes sont composés de plusieurs langages de haut niveau.
APA, Harvard, Vancouver, ISO, and other styles
6

Wang, Philippe. "Langages Applicatifs et Machines Abstraites pour la Couverture de Code Structurelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00741549.

Full text
Abstract:
Cette thèse présente une étude qui répond à un besoin industriel d'avoir des outils pour aider à la qualité et au respect des processus de développement de logiciels critiques comme ceux du domaine de l'avionique civile. Il s'agit de l'étude de la couverture de code structurelle pour un langage de la famille ML. Dans ce contexte, ML apparaît comme un langage particulièrement riche en constructions de haut-niveau d'abstraction et expressif. Son utilisation est un élément de progrès mais soulève des problèmes d'adaptation des pratiques du génie logiciel classique pour les systèmes critiques. Notamment, la notion de couverture des conditions et des décisions ainsi que les critères de couverture dérivés se complexifient rapidement. Nous donnons alors en première contribution plusieurs sémantiques pour l'interprétation des définitions des conditions et des décisions pour un langage d'expressions de haut-niveau que nous avons complètement formellement défini. Ensuite, nous donnons la sémantique formelle pour une implantation pour la mesure de couverture par réécriture du code source, ce que nous appelons l'instrumentation intrusive. Puis, nous étudions une technique qui ne réécrit pas le code, ce qui permet d'avoir la possibilité d'utiliser le même binaire pour les tests et pour la production. Cette technique, que nous appelons non intrusive, consiste à générer les informations de correspondance entre le code source et le code machine, et éventuellement d'autres informations, pour que l'environnement d'exécution incluant une machine virtuelle puisse enregistrer les traces nécessaires à l'élaboration des rapports de couverture. Enfin, nous comparons ces deux approches, en terme de sémantique, d'utilisation et d'implantation.
APA, Harvard, Vancouver, ISO, and other styles
7

Janta, Polczynski Martin. "Texte en langage naturel vu comme une spécification de haut niveau." Paris, EHESS, 1991. http://www.theses.fr/1991EHES0040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Amaneddine, Nouhad. "Un Modèle de spécification de haut niveau pour la transformation de données structurées." Toulouse 3, 2004. http://www.theses.fr/2004TOU30195.

Full text
Abstract:
Le développement d'Internet a subi une croissance assez rapide dans les cinq dernières années. Les documents accessibles sont publiés sous forme de pages HTML. Ce format de publication électronique ne sépare pas le contenu du document de sa forme. Le méta langage extensible XML définit un format bien structuré et répond aux exigences des nouvelles technologies, comme la présentation et la gestion des documents Web. XML est devenu une norme et il présente une technologie prometteuse pour la communication et la gestion de l'information. La communauté de l'Internet représentée par le consortium W3C a proposé en 1999 le langage des feuilles de styles extensible XSL. Ce langage est composé de deux parties: le langage XSL-FO pour le formatage des documents en vue de leurs présentations, et le langage XSLT pour la transformation des documents XML. Nous nous intéressons dans cette thèse à la partie transformation du langage XSL. XSLT est un langage plus simple qu'un langage de programmation classique. Il est en lui-même un langage très puissant et accessible au non programmeur. Cependant, il est difficile d'implémenter des règles de transformation complexes en XSLT, et la maintenance du code n'est pas évidente, surtout quand il s'agit d'une longue feuille de style qui manipule des transformations avancées. Comme alternative, nous proposons dans cette thèse un système de spécification des transformations de données structurées appelé TransM. Plusieurs approches de transformation de données structurées sont abordées. Nous présentons leurs avantages et leurs inconvénients ainsi que les plates-formes associées. Un problème que rencontrent les approches actuelles est la difficulté voire l'impossibilité de spécifier une transformation si les structures des documents source et cible sont complètement différentes. Un autre problème se manifeste par leur inaptitude à gérer des transformations sur des documents de structure récursive. Nous avons résolu ces problèmes à l'aide des règles de transformation de TransM. Un domaine d'application connexe bien qu'usuellement séparé dans la littérature est celui de la transformation de modèles. Les problèmes de la récursivité des éléments et de la différence structurelle sont affrontés aussi par les approches de transformation concernées. Pour résoudre ces problème de transformation, il suffit de représenter les modèles dans le format XMI, qui est une représentation XML des modèles, puis d'appliquer les transformations exprimées en TransM sur le document correspondant au format XML. TransM est basé sur un ensemble de règles dont nous définissons la grammaire. Les règles de spécification utilisées sont simples, intuitives et peuvent effectuer non seulement les transformations simples et directes, mais aussi des transformations de structure, point qui n'est pas toujours abordé dans les langages actuellement proposés. Les règles sont définies sur la grammaire des documents. Cette thèse étudie le problème de la transformation de données structurées. Afin de profiter des outils implantant le langage XSLT, le système génère du code XSLT pour accomplir la transformation au niveau des instances. Pour valider notre travail, nous avons développé un prototype de TransM, qui effectue avec succès les transformations avancées voulues<br>The Internet has presented an increasing development during the last five years. The accessible documents are published under the HTML format. This type of publication does not separate the structure of the document from its content. The extensible meta-language XML has defined a well structured format that responds to the new technologies requirements, like the management and the presentation of Web documents. XML has became an international norm and it presents a promised technology for managing and communicating informations. The Internet community represented by the W3C consortium has proposed in 1999 a new extensible stylesheet language XSL. This language has two parts: the language XSL-FO to formatting documents against their presentation and the second part consists of the XSLT language that has been built for XML document transformations. We are interesting in this thesis by the transformation part of the XSL language XSLT is a transformation language that is more simple than classical programming languages. It has considerable computation power. .
APA, Harvard, Vancouver, ISO, and other styles
9

Ammari, Abdelaziz. "Analyse de sûreté des circuits complexes décrits en langage de haut niveau." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00101622.

Full text
Abstract:
La probabilité des fautes transitoires augmente avec l'évolution des technologies. Plusieurs approches ont été proposées pour analyser très tôt l'impact de ces fautes sur un circuit numérique. Il est notamment possible d'utiliser une approche fondée sur l'injection de fautes dans une description VHDL au niveau RTL. Dans cette thèse, nous apportons plusieurs contributions à ce type d'analyse. Un premier aspect considéré est la prise en compte de l'environnement du circuit numérique lors des campagnes d'injection. Ainsi, une approche basée sur une analyse de sûreté de fonctionnement multi-niveaux a été développée et appliquée sur un exemple. Les injections sont réalisées dans le circuit numérique décrit au niveau RTL alors que le reste du système est décrit à un niveau d'abstraction plus élevé. L'analyse des résultats montre que certaines défaillances apparaissant au niveau du circuit n'ont en fait aucun impact sur le système. Nous présentons ensuite les avantages de la combinaison de deux types d'analyses : la classification des fautes en fonction de leurs effets, et l'analyse plus détaillée des configurations d'erreurs activées dans le circuit. Une campagne d'injection de fautes de type SEU a été réalisée sur un microcontrôleur 8051 décrit au niveau RTL. Les résultats montrent que la combinaison des analyses permet au concepteur de localiser les points critiques, facilitant l'étape de durcissement. Ils montrent également que, dans le cas d'un processeur à usage général, les configurations d'erreurs peuvent être dépendantes du programme exécuté. Cette étude a également permis de montrer que l'injection d'un très faible pourcentage des fautes possibles permet déjà d'obtenir des informations utiles pour le concepteur. La même méthodologie a été utilisée pour valider la robustesse obtenue avec un durcissement au niveau logiciel. Les résultats montrent que certaines fautes ne sont pas détectées par les mécanismes implémentés bien que ceux-ci aient été préalablement validés par des injections de fautes basées sur un simulateur de jeu d'instructions. Le dernier aspect de cette thèse concerne l'injection de fautes dans des blocs analogiques. En fait très peu de travaux traitent du sujet. Nous proposons donc un flot global d'analyse pour circuits numériques, analogiques ou mixtes, décrits au niveau comportemental. La possibilité d'injecter des fautes dans des blocs analogiques est discutée. Les résultats obtenus sur une PLL, choisie comme cas d'étude, sont analysés et montrent la faisabilité de l'injection de fautes dans des blocs analogiques. Pour valider le flot, des injections de fautes sont également réalisées au niveau transistor et comparées à celles réalisées à haut niveau. Il apparaît une bonne corrélation entre les résultats obtenus aux deux niveaux<br>The probability of transient faults increases with the evolution of the technologies. Several approaches have been proposed to early analyze the impact of these faults in a digital circuit. It is in particular possible to use an approach based on the injection of faults in a RT-Level VHDL description. In this thesis, we make several contributions to this type of analysis. A first considered aspect is to take into account the digital circuit's environment during the injection campaigns. So, an approach based on multi-level dependability analysis has been developed and applied to an example. The injections are performed in the digital circuit described at the RT-Level while the rest of the system is described at a higher level of abstraction. The results' analysis shows that failures appearing at circuit's level have in fact no impact on the system. We then present the advantages of the combination of two types of analyses : classification of faults with respect to their effects, and a more detailed analysis of error configurations activated in the circuit. An injection campaign of SEU-like faults was performed on a 8051 microcontroller described at RT-Level. The results show that the combination of the two type analyses allows a designer to localize the critical points, facilitating the hardening stage. They also show that, in the case of a general processor, the error configurations can be dependent on the executed program. This study also demonstrates that injecting a very small percentage of the possible faults gives useful information to the designer. The same methodology has been used to validate the robustness obtained with a software hardening. The results show that some faults are not detected by the implemented mechanisms although those were previously validated by fault injections based on an instruction set simulator. The last aspect of this thesis concerns the fault injection in analog blocks. In fact very few works cover this subject. We thus propose a global analysis flow for digital, analog or mixed circuits, described at behavioral level. The possibility to inject faults in analog blocks is discussed. The results obtained on a PLL, chosen as case study, have been analysed and show the feasibility of fault injections in analog blocks. To validate this flow, fault injections were also performed at transistor level and compared to those performed at high level. It appears a good correlation between the results obtained at the two levels
APA, Harvard, Vancouver, ISO, and other styles
10

Pradel, Camille. "D'un langage de haut niveau à des requêtes graphes permettant d'interroger le web sémantique." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2237/.

Full text
Abstract:
Les modèles graphiques sont de bons candidats pour la représentation de connaissances sur le Web, où tout est graphes : du graphe de machines connectées via Internet au "Giant Global Graph" de Tim Berners-Lee, en passant par les triplets RDF et les ontologies. Dans ce contexte, le problème crucial de l'interrogation ontologique est le suivant : est-ce qu'une base de connaissances composée d'une partie terminologique et d'une partie assertionnelle implique la requête, autrement dit, existe-t-il une réponse à la question ? Ces dernières années, des logiques de description ont été proposées dans lesquelles l'expressivité de l'ontologie est réduite de façon à rendre l'interrogation calculable (familles DL-Lite et EL). OWL 2 restreint OWL-DL dans ce sens en se fondant sur ces familles. Nous nous inscrivons dans le contexte d'utilisation de formalismes graphiques pour la représentation (RDF, RDFS et OWL) et l'interrogation (SPARQL) de connaissances. Alors que les langages d'interrogation fondés sur des graphes sont présentés par leurs promoteurs comme étant naturels et intuitifs, les utilisateurs ne pensent pas leurs requêtes en termes de graphes. Les utilisateurs souhaitent des langages simples, proches de la langue naturelle, voire limités à des mots-clés. Nous proposons de définir un moyen générique permettant de transformer une requête exprimée en langue naturelle vers une requête exprimée dans le langage de graphe SPARQL, à l'aide de patrons de requêtes. Le début de ce travail coïncide avec les actions actuelles du W3C visant à préparer une nouvelle version de RDF, ainsi qu'avec le processus de standardisation de SPARQL 1. 1 gérant l'implication dans les requêtes<br>Graph models are suitable candidates for KR on the Web, where everything is a graph, from the graph of machines connected to the Internet, the "Giant Global Graph" as described by Tim Berners-Lee, to RDF graphs and ontologies. In that context, the ontological query answering problem is the following: given a knowledge base composed of a terminological component and an assertional component and a query, does the knowledge base implies the query, i. E. Is there an answer to the query in the knowledge base? Recently, new description logic languages have been proposed where the ontological expressivity is restricted so that query answering becomes tractable. The most prominent members are the DL-Lite and the EL families. In the same way, the OWL-DL language has been restricted and this has led to OWL2, based on the DL-Lite and EL families. We work in the framework of using graph formalisms for knowledge representation (RDF, RDF-S and OWL) and interrogation (SPARQL). Even if interrogation languages based on graphs have long been presented as a natural and intuitive way of expressing information needs, end-users do not think their queries in terms of graphs. They need simple languages that are as close as possible to natural language, or at least mainly limited to keywords. We propose to define a generic way of translating a query expressed in a high-level language into the SPARQL query language, by means of query patterns. The beginning of this work coincides with the current activity of the W3C that launches an initiative to prepare a possible new version of RDF and is in the process of standardizing SPARQL 1. 1 with entailments
APA, Harvard, Vancouver, ISO, and other styles
11

Josset, François-Xavier. "Spécification et compilation d'un langage de haut niveau pour l'optimisation combinatoire : CLAIRE vers Java." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS010V.

Full text
Abstract:
Après une longue hégémonie des langages procéduraux, la programmation orientée-objet s'impose progressivement comme la technologie d'excellence pour le génie logiciel. Le développement de telles applications reste cependant délicat, tant les problèmes traités peuvent être complexes et hétérogènes, et les langages de programmation orientée-objet parfois mal appropriés. De nouveaux outils et de nouvelles méthodes d'aide au développement sont régulièrement proposés, ainsi que des langages de plus en plus ouverts et performants. Cette thèse s'inscrit dans le cadre de la spécifification et de la compilation de CLAIRE, un langage de programmation orientée-objet de haut niveau, offrant des objets réflexifs, des types étendus, des fonctions paramétriques et polymorphes, des ensemnles concrets et abstraits, des règles de production et des primitives pour le raisonnement hypothétique. Ce langage, plus spécialement dédié à l'écriture d'algorithmes hybrides pour les problèmes d'optimisation combinatoire, vient avec un environnement de programmation complet réconciliant expresivité et efficacité. CLAIRE étant une plate-forme de développement amenée à évoluer, une nouvelle version est proposée avec des collections originales, un riche système de types permettant un typage fort, sûr et flexible, et la possibilité de générer des programmes Java lisibles et maintenables. De plus, un outil de calculs statiques de métriques permet d'établir la qualité des applications CLAIRE, d'identifier leurs faiblesses et de visualiser graphiquement les améliorations réalisées au cours des différentes versions. La combinaison entre la nouvelle plate-forme et l'outil de mesures de qualité assure une plus grande maîtrise des développements en CLAIRE.
APA, Harvard, Vancouver, ISO, and other styles
12

Frizon, de Lamotte Florent. "Proposition d'une approche haut niveau pour la conception, l'analyse et l'implantation des systèmes reconfigurables." Lorient, 2006. http://www.theses.fr/2006LORIS073.

Full text
Abstract:
La qualité de service attendue pour les systèmes de production et les systèmes électroniques, rend incontournable l'utilisation de la reconfiguration qui permet d'organiser le système au mieux pour répondre à l'objectif fixé. L'exploitation du caractère reconfigurable d'un tel système nécessite une prise en compte de cette capacité de la conception à l'implantation. La phase de conception repose sur une description du système reconfigurable selon deux axes. Le premier sépare l'architecture du système de ses configurations. Le second distingue la partie logique, décrivant les traitements à réaliser et la partie physique décrivant les ressources constituant le système. Une fois l'architecture et les configurations décrites, des analyses permettent au concepteur d'évaluer l'architecture ou les configurations en terme de performances, de tolérance aux pannes ou de coût. Ces analyses peuvent aussi intervenir pour guider la stratégie de reconfiguration au cours du fonctionnement du système. Elles font appel à des outils d'ingénierie dirigée par les modèles permettant d'obtenir automatiquement les modèles d'analyse à partir de la description du système. Un cadre d'implantation, utilisant également l'ingénierie dirigée par les modèles, est proposé pour la génération d'un code de contrôle/commande à partir de la description de haut niveau. Toute l'approche a été déployée sur une application réelle développée au cours des travaux de thèse et présentée dans ce document<br>The expected quality of service of manufacturing or electronic systems makes reconfiguration capabilities essential. Reconfiguration consists in a reorganization of the system to better comply with a given objective. To fully take advantage of all the reconfiguration capabilities of the system, designers need to take them into account throughout the whole development process. The design phase is performed on a description of the reconfigurable system, which is split along two axes. The first axis separates the system's architecture from its configuration. The second one separates the logical part of the system describing the processes from the physical part of the system that describes its resources. Once the system has been described, analyses help designers in the evaluation of its performances, breakdown tolerance and cost. Analyses can also be used for leading the reconfiguration strategy. They make use of model engineering techniques, which enable automatic transformations from the description model to analysis models. An implementation framework, which also uses model engineering is described for the control-command code generation from the high-level description. The whole approach has been tested on a real platform built during the thesis
APA, Harvard, Vancouver, ISO, and other styles
13

Federici, Dominique. "Simulation de fautes comportementales de systèmes digitaux décrits à haut niveau d'abstraction en VHDL." Corte, 1999. http://www.theses.fr/1999CORT3039.

Full text
Abstract:
L’étude présentée dans ce mémoire entre dans le cadre de la conception des systèmes digitaux à très haute échelle d’intégration. Le but de notre travail est la définition et le développement d'un simulateur de fautes pour des systèmes digitaux décrits à haut niveau d'abstraction selon un point de vue comportemental. Pour accomplir cette tache, nous avons développé une approche intégrant les quatre étapes suivantes : - étude d'une modélisation adéquate explicitant les concepts de base des descriptions comportementales, en particulier la séparation données/commande. - choix d'un modèle de fautes comportementales. - définition d'un principe de simulation de fautes comportementales : notre méthode consiste à propager des listes de fautes à travers les éléments de base du modèle du système étudié - implémentation de ce principe : ces travaux ont été réalisés à partir des concepts de la théorie des objets offrant ainsi la possibilité d’élaborer un outil évolutif. La validation de notre approche est mise en oeuvre à travers l’étude d'un exemple : le registre 8-bit.
APA, Harvard, Vancouver, ISO, and other styles
14

Gilliers, Frédéric. "Dévelopement par prototypage et génération de code à partir de LfP, un langage de modélisation de haut niveau." Paris 6, 2005. http://www.theses.fr/2005PA066302.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Moy, Matthieu. "Modélisation à haut niveau d'abstraction pour les systèmes embarqués." Habilitation à diriger des recherches, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01054555.

Full text
Abstract:
Les systèmes embarqués modernes ont atteint un niveau de complexité qui fait qu'il n'est plus possible d'attendre les premiers prototypes physiques pour valider les décisions sur l'intégration des composants matériels et logiciels. Il est donc nécessaire d'utiliser des modèles, tôt dans le flot de conception. Les travaux présentés dans ce document contribuent à l'état de l'art dans plusieurs domaines. Nous présentons dans un premier temps de nouvelles techniques de vérification de programmes écrits dans des langages généralistes comme C, C++ ou Java. Dans un second temps, nous utilisons des outils de vérification formelle sur des modèles écrits en SystemC au niveau transaction (TLM). Plusieurs approches sont présentées, la plupart d'entre elles utilisent des techniques de compilations spécifiques à SystemC pour transformer le programme SystemC en un format utilisable par les outils. La seconde partie du document s'intéresse aux propriétés non-fonctionnelles des modèles~: performances temporelles, consommation électrique et température. Dans le contexte de la modélisation TLM, nous proposons plusieurs techniques pour enrichir des modèles fonctionnels avec des informations non-fonctionnelles. Enfin, nous présentons les contributions faites à l'analyse de performance modulaire (MPA) avec le calcul temps-réel (RTC). Nous proposons plusieurs connections entre ces modèles analytiques et des formalismes plus expressifs comme les automates temporisés et le langage de programmation Lustre. Ces connexion posent le problème théorique de la causalité, qui est formellement défini et résolu avec un algorithme nouveau dit de " fermeture causale ".
APA, Harvard, Vancouver, ISO, and other styles
16

Rahmouni, Maher. "Ordonnancement et optimisations pour la synthèse de haut niveau des circuits de controle." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0028.

Full text
Abstract:
La plupart des algorithmes d'ordonnancement existants dans le domaine de la synthese de haut niveau sont concus pour des applications dominees par les donnees telles que les applications de traitement de signal. Ces algorithmes ont pour objectif de minimiser le cout de la partie operative. Cependant, dans les circuits de commande modernes, les performances de la partie controle dominent la performance globale du circuit. Il est donc necessaire de prendre en compte les caracteristiques de ces applications et de developper un ensemble de techniques qui permettent de minimiser le cout de la partie controle. Cette these presente de nouvelles techniques d'ordonnancement pour differentes architectures de controleur ainsi qu'une etude sur l'interpretation des structures du langage vhdl par la synthese de haut niveau. Les approches developpees se concentrent sur l'optimisation de la surface du controleur et de la performance du circuit. Le principe de ces techniques est d'analyser les differents chemins d'execution de la description comportementale du circuit representee sous forme d'un graphe de flot de controle. Les algorithmes realises ont ete integres dans l'outil de synthese de haut niveau amical. Les resultats montrent leur efficacite sur des exemples reels de circuits domines par le controle.
APA, Harvard, Vancouver, ISO, and other styles
17

Amalric, Marie. "Etude des mécanismes cérébraux d'apprentissage et de traitement des concepts mathématiques de haut niveau." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066143/document.

Full text
Abstract:
Comment le cerveau humain parvient-il à conceptualiser des idées abstraites ? Quelle est en particulier l’origine de l’activité mathématique lorsqu'elle est associée à un haut niveau d’abstraction ? La question de savoir si la pensée mathématique peut exister sans langage intéresse depuis longtemps les philosophes, les mathématiciens et les enseignants. Elle commence aujourd’hui à être abordée par les neurosciences cognitives. Alors que les études précédentes se sont principalement focalisées sur l’arithmétique élémentaire, mon travail de thèse privilégie l’étude de la manipulation d’idées mathématiques plus avancées et des processus cérébraux impliqués dans leur apprentissage. Les travaux présentés dans cette thèse révèlent que : (1) la réflexion sur des concepts mathématiques de haut niveau appris depuis de nombreuses années n’implique pas les aires du langage ; (2) l’activité mathématique, quels qu’en soient la difficulté et le domaine, implique systématiquement des régions classiquement associées à la manipulation des nombres et de l’espace, y compris chez des personnes non-voyantes; (3) l’apprentissage non-verbal de règles géométriques repose sur un langage de la pensée indépendant du langage parlé naturel. Ces résultats ouvrent la voie à de nouvelles questions en neurosciences. Par exemple, l’apprentissage de concepts mathématiques enseignés à l’école par le truchement des mots se passe-t-il également du langage ? Ou enfin, que signifie réellement "faire des mathématiques" pour le cerveau humain ?<br>How does the human brain conceptualize abstract ideas? In particular, what is the origin of mathematical activity, especially when it is associated with high-level of abstraction? Is mathematical thought independent of language? Cognitive science has now started to investigate this question that has been of great interest to philosophers, mathematicians and educators for a long time. While studies have so far focused on basic arithmetic processing, my PhD thesis aims at further investigating the cerebral processes involved in the manipulation and learning of more advanced mathematical ideas. I have shown that (1) advanced mathematical reflection on concepts mastered for many years does not recruit the brain circuits for language; (2) mathematical activity systematically involves number- and space-related brain regions, regardless of mathematical domain, problem difficulty, and participants' visual experience; (3) non-verbal acquisition of geometrical rules relies on a language of thought that is independent of natural spoken language. Finally, altogether these results raise new questions and pave the way to further investigations in neuroscience: - is the human ability for language also irrelevant to advanced mathematical acquisition in schools where knowledge is taught verbally? - What is the operational definition of the fields of “mathematics” and “language” at the brain level?
APA, Harvard, Vancouver, ISO, and other styles
18

Lebeaupin, Benoit. "Vers un langage de haut niveau pour une ingénierie des exigences agile dans le domaine des systèmes embarqués avioniques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC078/document.

Full text
Abstract:
La complexité des systèmes conçus actuellement devient de plus en plus importante. En effet,afin de rester compétitives, les entreprises concevant des systèmes cherchent à leur rajouter de plus en plusde fonctionnalités. Cette compétitivité introduit aussi une demande de réactivité lors de la conception desystèmes, pour que le système puisse évoluer lors de sa conception et suivre les demandes du marché.Un des éléments identifiés comme empêchant ou diminuant cette capacité à concevoir de manière flexibledes systèmes complexes concerne les spécifications des systèmes, et en particulier l’utilisation de la languenaturelle pour spécifier les systèmes. Tout d’abord, la langue naturelle est intrinsèquement ambiguë et celarisque donc de créer des non-conformités si client et fournisseur d’un système ne sont pas d’accord sur lesens de sa spécification. De plus, la langue naturelle est difficile à traiter automatiquement, par exemple, onpeut difficilement déterminer avec un programme informatique que deux exigences en langue naturelle secontredisent. Cependant, la langue naturelle reste indispensable dans les spécifications que nous étudions,car elle reste un moyen de communication pratique et très répandu.Nous cherchons à compléter ces exigences en langue naturelle avec des éléments permettant à la fois de lesrendre moins ambiguës et de faciliter les traitements automatiques. Ces éléments peuvent faire partie demodèles (d’architecture par exemple) et permettent de définir le lexique et la syntaxe utilisés dans lesexigences. Nous avons testé les principes proposés sur des spécifications industrielles réelles et développéun prototype logiciel permettant de réaliser des tests sur une spécification dotée de ces éléments de syntaxeet de lexique<br>Systems are becoming more and more complex, because to stay competitive, companies whichdesign systems search to add more and more functionalities to them. Additionally, this competition impliesthat the design of systems needs to be reactive, so that the system is able to evolve during its conception andfollow the needs of the market.This capacity to design flexibly complex systems is hindered or even prevented by various variouselements, with one of them being the system specifications. In particular, the use of natural language tospecify systems have several drawbacks. First, natural language is inherently ambiguous and this can leadsto non-conformity if customer and supplier of a system disagree on the meaning of its specification.Additionally, natural language is hard to process automatically : for example, it is hard to determine, usingonly a computer program, that two natural language requirements contradict each other. However, naturallanguage is currently unavoidable in the specifications we studied, because it remains very practical, and itis the most common way to communicate.We aim to complete these natural language requirements with elements which allow to make them lessambiguous and facilitate automatic processing. These elements can be parts of models (architectural modelsfor example) and allow to define the vocabulary and the syntax of the requirements. We experimented theproposed principles on real industrial specifications and we developped a software prototype allowing totest a specification enhanced with these vocabulary and syntax elements
APA, Harvard, Vancouver, ISO, and other styles
19

Chan-Hon-Tong, Adrien. "Segmentation supervisée d'actions à partir de primitives haut niveau dans des flux vidéos." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066226/document.

Full text
Abstract:
Cette thèse porte sur la segmentation supervisée de flux vidéo dans un contexte applicatif lié à la reconnaissance d'actions de la vie courante.La méthode de segmentation proposée est dérivée la méthode des modèles de formes implicites (Implicit Shape Model) et s'obtient en optimisant les votes présents dans cette méthode d'élection.Nous démontrons que cette optimisation (dans un contexte de fenêtre temporelle glissante) peut être exprimée de manière équivalente dans le formalisme des SVM en imposant une contrainte de cohérence temporelle à l'apprentissage, ou, en représentant la fenêtre glissante selon une décomposition pyramidale dense.Tout ce processus est validé expérimentalement sur un jeu de données de la littérature de segmentation supervisée.Il y surpasse les autres méthodes de type modèles de formes implicites et le SVM linéaire standard.La méthode proposée est ensuite mise en œuvre dans le cadre de la segmentation supervisée d'actions.Pour cela, des primitives dédiées sont extraites des données squelette de la personne d'intérêt obtenues grâce à des logiciels standards.Ces primitives sont ensuite quantifiées puis utilisées par la méthode d'élection.Ce système de segmentation d'actions obtient les meilleurs scores de l'état de l'art sur un jeu de données de la littérature de reconnaissance d'actions, ce qui valide cette combinaison des primitives et de la méthode d'élection<br>This thesis focuses on the supervised segmentation of video streams within the application context of daily action recognition.A segmentation algorithm is obtained from Implicit Shape Model by optimising the votes existing in this polling method.We prove that this optimisation can be linked to the sliding windows plus SVM framework and more precisely is equivalent with a standard training by adding temporal constraint, or, by encoding the data through a dense pyramidal decomposition. This algorithm is evaluated on a public database of segmentation where it outperforms other Implicit Shape Model like methods and the standard linear SVM.This algorithm is then integrated into a action segmentation system.Specific features are extracted from skeleton obtained from the video by standard software.These features are then clustered and given to the polling method.This system, combining our feature and our algorithm, obtains the best published performance on a human daily action segmentation dataset
APA, Harvard, Vancouver, ISO, and other styles
20

Lemaire, Jérôme. "Utilisation de descriptions de haut niveau et gestion de l'incertitude dans un système de reconnaissance de scènes." Toulouse, ENSAE, 1996. http://www.theses.fr/1996ESAE0021.

Full text
Abstract:
Cette thèse s'intéresse au problème de reconnaissance de scènes dans un contexte de robotique autonome. La mission de reconnaissance est définie comme l'identification d'un cheminement comprenant des objets et des relations entre ceux-ci (Description de la Scène Attendue) et permettant d'atteindre un objet à manipuler. Dans un premier temps, nous avons proposé un formalisme de représentation et d'exploitation des connaissances proche du langage utilisateur pour une expression relativement naturelle des connaissances et exploitable par le système dans son processus de reconnaissance. Ce formalisme comprend une structure de type graphe et / ou dans lequel les noeuds et les relations sont donnés dans un langage pseudo-naturel basé sur une approche logique permettant la conjonction et la disjonction. Pour la reconnaissance d'objets, nous avons particulièrement approfondi la gestion de l'imprécision et de l'incertitude qui peuvent apparaître aussi bien au niveau des modèles qu'au niveau des données perceptuelles. Une approche basée sur la théorie des possibilités a été retenue. Enfin, la résolution du problème de reconnaissance de scène a été abordée. Ici aussi, la théorie des possibilités est utilisée car elle permet de décrire l'imprécision et l'incertitude à la fois sur les entités perçues et sur les entités attendues. Un aspect important concerne l'étude de l'agrégation des degrés de compatibilité obtenus. Deux algorithmes de résolution ont été mis en oeuvre. Le premier gère le problème de reconnaissance comme un problème d'affectation. Le second est basé sur une formulation de type Satisfaction de Contraintes Flexibles et aborde la reconnaissance comme un problème d'optimisation. Ces deux versions du système de reconnaissance ont été testées sur des scènes d'intérieur comprenant des installations à base de tuyauteries.
APA, Harvard, Vancouver, ISO, and other styles
21

Guilleminot, Céline. "Etude et intégration numérique d'un système multicapteurs AMRC de télécommunication basé sur un prototype virtuel utilisant le langage de haut niveau VHDL-AMS." Toulouse 2, 2005. http://www.theses.fr/2005TOU20085.

Full text
Abstract:
Les travaux de thèse présentés dans ce mémoire appliquent la notion de prototypage virtuel en VHDL-AMS à un système multicapteurs et multiutilisateurs de communication hertzienne émetteur/récepteur dans la bande libre ISM. La première partie présente un état de l'art de la conception système ainsi que les outils logiciels dédiés. Par suite, tous les étages numériques et analogiques sont développés sous le standard VHDL-AMS. Notre étude se focalise alors sur le choix de la topologie de l'organe de synchronisation et de poursuite, fonctions clés des communications à étalement de spectre. Afin de compléter les bibliothèques dédiées aux télécommunications en langage VHDL-AMS, un modèle de canal AWGN est proposé, intégrant un générateur de bruit (méthode mathématique de Box-Muller) et un module de retard paramétrable. Enfin, un prototype de tests est développé, basé sur une implantation des fonctions numériques dans un circuit FPGA, nous permettant d'évaluer les performances d'un tel système en terme de débit, de taux d'erreurs sur le bit et d'occupation matérielle<br>Today, requirements in system designs are extending more and more from electronic design (analogue and digital) to multidiscipline design. These current needs imply implementation of methodologies to optimize and to make the CAD product reliable. The recent VHDL-AMS standard seems to fit very well. This thesis presents an application of virtual prototype dedicated to a multisensor and multiuser DS-SS (Direct Sequence Spread Spectrum) transceiver system using ISM unlicensed band. The first part describes the state of the art of system design and software tools. After this, the whole digital and analogue stages will be developed under VHDL-AMS standard. Our study will focus on the synchronization and tracking entity topology choice, which are the main functions of a spread spectrum communication device. In order to complete VHDL-AMS library dedicated to telecommunication, a model of AWGN channel including a noise generator (Box-Muller method) will be proposed. Finally, a hardware prototype will be developped, based on digital function implantations in a FPGA chipset allowing to assess such a system data rate, bit error rate and size performances
APA, Harvard, Vancouver, ISO, and other styles
22

Evangelista, Sami. "Méthodes et outils de vérification pour les réseaux de Petri de haut niveau : Application à la vérification de programmes Ada concurrents." Paris, CNAM, 2006. http://www.theses.fr/2006CNAM0543.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la vérification automatique de programmes concurrents basée sur un modèle formel intermédiaire, les réseaux de Petri colorés. Nous nous attachons particulièrement à définir, ou adapter, des méthodes qui visent à lutter contre le phénomène d'explosion combinatoire induit par les algorithmes d'exploration du graphe d'accessibilité. Nous oeuvrons pour cela à deux niveaux : au niveau structurel, par des techniques d'abstraction du modèle, et au niveau sémantique, par des techniques de réduction du graphe d'accessibilité du système. Afin de valider l'intérêt pratique des techniques proposées nous les avons implantées dans deux outils : Helena un model checker pour les réseaux de Petri de haut niveau et Quasar une plate-forme pour la validation de programmes Ada concurrents<br>This thesis enters in the frame of the automatic verification of concurrent software based on an intermediary formal language, colored Petri nets. We particularly endeavor to define, or adapt, methods which aim at tackling the state explosion induced by an exhaustive exploration of the state space. We work at two levels : at a structural level, by defining some automatic automatic abstraction rules of the model, and at a semantic level, by reducing the reachabiblity graph of the system. In order to validate the practical interest of the proposed techniques we implemented them in two tools: Helena a model checker for high level Petri nets and Quasar, a platform for the verification of concurrent Ada software
APA, Harvard, Vancouver, ISO, and other styles
23

Ahmed, Sameer. "Application d'un langage de programmation de type flot de données à la synthèse haut-niveau de système de vision en temps-réel sur matériel reconfigurable." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00844399.

Full text
Abstract:
Les circuits reconfigurables de type FPGA (Field Programmable Gate Arrays) peuvent désormais surpasser les processeurs généralistes pour certaines applications offrant un fort degré de parallélisme intrinsèque. Ces circuits sont traditionnellement programmés en utilisant des langages de type HDL (Hardware Description Languages), comme Verilog et VHDL. L'usage de ces langages permet d'exploiter au mieux les performances offertes par ces circuits mais requiert des programmeurs une très bonne connaissance des techniques de conception numérique. Ce pré-requis limite fortement l'utilisation des FPGA par la communauté des concepteurs de logiciel en général. Afin de pallier cette limitation, un certain nombre d'outils de plus haut niveau ont été développés, tant dans le monde industriel qu'académique. Parmi les approches proposées, celles fondées sur une transformation plus ou moins automatique de langages de type C ou équivalent, largement utilisés dans le domaine logiciel, ont été les plus explorées. Malheureusement, ces approches ne permettent pas, en général, d'obtenir des performances comparables à celles issues d'une formulation directe avec un langage de type HDL, en raison, essentiellement, de l'incapacité de ces langages à exprimer le parallélisme intrinsèque des applications. Une solution possible à ce problème passe par un changement du modèle de programmation même. Dans le contexte qui est le notre, le modèle flot de données apparaît comme un bon candidat. Cette thèse explore donc l'adoption d'un modèle de programmation flot de données pour la programmation de circuits de type FPGA. Plus précisément, nous évaluons l'adéquation de CAPH, un langage orienté domaine (Domain Specific Language) à la description et à l'implantation sur FPGA d'application opérant à la volée des capteurs (stream processing applications). L'expressivité du langage et l'efficacité du code généré sont évaluées expérimentalement en utilisant un large spectre d'applications, allant du traitement d'images bas niveau (filtrage, convolution) à des applications de complexité réaliste telles que la détection de mouvement, l'étiquetage en composantes connexes ou l'encodage JPEG.
APA, Harvard, Vancouver, ISO, and other styles
24

CORNES, CRISTINA. "Conception d'un langage de haut niveau de representation de preuves : recurrence par filtrage de motifs unification en presence de types inductifs primitifs synthese de lemmes d'inversion." Paris 7, 1997. http://www.theses.fr/1997PA077193.

Full text
Abstract:
Les systemes de preuves bases sur les theories des types offrent un cadre uniforme qui permet de programmer, specifier et prouver. L'utilisateur dispose d'un langage de programmation, d'un langage de specification et d'outils qui l'aident a raisonner formellement sur son programme. Dans le but de rapprocher dans ces systemes la syntaxe des definitions de fonctions de celle des mathematiques et des langages de programmation a la ml, nous etudions les preuves de terminaison de fonctions recursives definies equationnellement. A partir de la methode de synthese de preuves proposee par gilles dowek pour les systemes de types purs, et celle proposee par hassan saidi pour le systeme t de godel, nous proposons une methode de synthese de preuves pour le calcul des constructions inductives (cci). Ce calcul est une theorie des types tres riche, avec types polymorphes, types dependants et types inductifs primitifs (par exemple, les types algebriques et les predicats inductifs). Cette methode est complete, et fournit un cadre general ou definir des strategies de recherche de preuves. La completude se paye par la non terminaison. Nous etudions donc des restrictions qui terminent et qui permettent de resoudre une certaine classe de problemes de filtrage et d'unification du second ordre dans cci. Nous analysons aussi la derivation de principes d'analyse par cas specialises (dits principes d'inversion), technique necessaire pour resoudre une classe large de problemes de filtrage. Ces restrictions, que l'on peut considerer comme des algorithmes de compilation, synthetisent des preuves explicites a partir de notations plus implicites, dans l'esprit de la compilation des motifs dans un langage fonctionnel. Ceci permet d'incorporer au langage de specification du systeme de preuves la notation par filtrage de motifs aussi bien pour ecrire des programmes que des preuves.
APA, Harvard, Vancouver, ISO, and other styles
25

Haddad, Serge. "Une categorie reguliere de reseau de petri de haut niveau : definition, proprietes et reductions, application a la validation de systemes distribues." Paris 6, 1987. http://www.theses.fr/1987PA066418.

Full text
Abstract:
Developpement d'une theorie des reseaux reguliers (qui permettent l'analyse directe des reseaux colores), fondee sur trois outils complementaires: la construction d'un graphe de marquages symboliques, le calcul des invariants lineaires et la definition de l'ensemble des reductions
APA, Harvard, Vancouver, ISO, and other styles
26

Le, Lann Jean-Christophe. "Simulation et synthèse de circuits s'appuyant sur le modèle synchrone." Rennes 1, 2002. http://www.theses.fr/2002REN1A001.

Full text
Abstract:
Les travaux présentés dans le cadre de cette thèse mettent en avant les possibilités offertes par l'approche synchrone (et le langage SIGNAL en particulier) dans la modélisation de circuits numériques, l'élaboration de simulateurs et la synthèse de matériel. L'affinité, peu remarquée jusqu'ici, entre langages synchrones et les simulateurs cycle ("cycle-based simulators") est soulignée. Afin de profiter au mieux des du calcul symbolique réalisé par le compilateur SIGNAL, et d'une génération de code C efficace, nous passons par une modélisation de circuits au niveau portes, qui se défait partiellement de la synchronisation classique des opérandes sur une horloge maîtresse. La même ambition vaut également pour le schéma de traduction VHDL que nous proposons. Concernant la synthèse automatique, deux méthodes sont exposées. La première repose sur une traduction des processus SIGNAL de base en circuits élémentaires qui, une fois assemblés, restituent la sémantique du programme initial. Il s'agit donc d'un schéma de traduction. La seconde méthode est une exploration d'un schéma de transformation : le graphe hiérarchisé aux dépendances conditionnées ou GHDC est une format très intéressant dans le cadre de la synthèse de haut-niveau ou synthèse comportementale. Nous poursuivons ici des travaux précédents en montrant que ce format interne peut être utilisé tout au long de la chaîne de compilation : allocation des registres du chemin de données, génération du contrôleur, mais également lors d'estimations de paramètres lors de l'exploration de l'espace de décision du concepteur.
APA, Harvard, Vancouver, ISO, and other styles
27

Pouilly-Cathelain, Maxime. "Synthèse de correcteurs s’adaptant à des critères multiples de haut niveau par la commande prédictive et les réseaux de neurones." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG019.

Full text
Abstract:
Cette thèse porte sur la commande des systèmes non linéaires soumis à des contraintes non différentiables ou non convexes. L'objectif est de pouvoir réaliser une commande permettant de considérer tout type de contraintes évaluables en temps réel.Pour répondre à cet objectif, la commande prédictive a été utilisée en ajoutant des fonctions barrières à la fonction de coût. Un algorithme d'optimisation sans gradient a permis de résoudre ce problème d'optimisation. De plus, une formulation permettant de garantir la stabilité et la robustesse vis-à-vis de perturbations a été proposée dans le cadre des systèmes linéaires. La démonstration de la stabilité repose sur les ensembles invariants et la théorie de Lyapunov.Dans le cas des systèmes non linéaires, les réseaux de neurones dynamiques ont été utilisés comme modèle de prédiction pour la commande prédictive. L'apprentissage de ces réseaux ainsi que les observateurs non linéaires nécessaires à leur utilisation ont été étudiés. Enfin, notre étude s'est portée sur l'amélioration de la prédiction par réseaux de neurones en présence de perturbations.La méthode de synthèse de correcteurs présentée dans ces travaux a été appliquée à l’évitement d’obstacles par un véhicule autonome<br>This PhD thesis deals with the control of nonlinear systems subject to nondifferentiable or nonconvex constraints. The objective is to design a control law considering any type of constraints that can be online evaluated.To achieve this goal, model predictive control has been used in addition to barrier functions included in the cost function. A gradient-free optimization algorithm has been used to solve this optimization problem. Besides, a cost function formulation has been proposed to ensure stability and robustness against disturbances for linear systems. The proof of stability is based on invariant sets and the Lyapunov theory.In the case of nonlinear systems, dynamic neural networks have been used as a predictor for model predictive control. Machine learning algorithms and the nonlinear observers required for the use of neural networks have been studied. Finally, our study has focused on improving neural network prediction in the presence of disturbances.The synthesis method presented in this work has been applied to obstacle avoidance by an autonomous vehicle
APA, Harvard, Vancouver, ISO, and other styles
28

Krencker, Jean-Christophe. "Développement d'outils et de modèles CAO de haut niveau pour la simulation électrothermique de circuits mixtes en technologie 3D." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00804671.

Full text
Abstract:
Les travaux de cette thèse s'inscrivent dans un projet de grande envergure, le projet 3D-IDEAS, financé par l'ANR. Le but de ce projet est d'établir la chaîne complète de l'intégration de circuits en technologie 3D. Les densités de puissance dans ces circuits sont telles que les problèmes liés à la température - électromigration, désappariement des courants et tensions de polarisation, etc. - sont susceptibles de remettre en cause la conception du circuit. Le coût élevé de la fabrication de ces circuits oblige le concepteur à valider le comportement électrothermique des circuits préalablement à l'envoi en fabrication. Pour répondre à ce besoin, un simulateur électrothermique précis et fiable doit être à disposition. En outre, en raison de la complexité extrême de ces circuits, il est judicieux que ce simulateur soit compatible avec l'approche de modélisation haut niveau. L'objectif de cette thèse est de développer un tel simulateur. La solution proposée intègre ce simulateur dans un environnement de développement CAO pour circuit intégré standard, Cadence®. La contrainte sur la précision des résultats nous a amené à développer une nouvelle méthodologie spécifique à la modélisation électrothermique haut-niveau. Ce manuscrit comporte deux grandes parties. Dans la première, la démarche adoptée pour concevoir le simulateur est détaillée. Ensuite, dans la seconde partie, le fonctionnement du simulateur ainsi que la méthode de modélisation haut-niveau mise en place sont présentées, puis validées.
APA, Harvard, Vancouver, ISO, and other styles
29

Ditzel, Kropiwiec Cássio. "Framework for distributed firewall administration in a multi-constraint security policies context." Paris 6, 2009. http://www.theses.fr/2009PA066162.

Full text
Abstract:
Ce travail présente une nouvelle approche pour représenter ces règles de sécurité d’un réseau global. Le framework proposé définit un langage de règles de haut niveau, qui permet les spécifications de ces règles selon des modèles de sécurité obligatoires, discrétionnaires et de propriétés. Ce Framework est capable de gérer simultanément les trois dimensions et décrit de manière cohérente les autorisations résultantes sous la forme d’une représentation abstraite, indépendante de la façon dont elles seront mises en place, et sans violer l’objectif de sécurité globale. Le Framework inclue aussi un mécanisme responsable pour la traduction de la représentation abstraite des autorisations en scripts/règles de configuration de bas-niveau pour des pare-feu de différents modèles et fabricants, permettant son utilisation pour la configuration de réseaux hétérogènes. Chaque dimension peut être définie par des personnes ayant différents rôles, permettant une coopération pour la définition d’une politique globale. Le Framework est formalisé avec Z afin de démontrer sa complétude et sa rigueur. Une étude d’extensibilité est présentée pour expliquer le comportement du Framework pour des réseaux plus larges.
APA, Harvard, Vancouver, ISO, and other styles
30

Bourrasset, Cédric. "Le modèle flot de données appliqué à la synthèse haut-niveau pour le traitement d’images sur caméra intelligente à base de FPGA. Application aux systèmes d’apprentissage supervisés." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22673/document.

Full text
Abstract:
La synthèse de haut niveau (High Level Synthesis (HLS)) est un domaine de recherche qui vise à automatiser le passage de la description d’un algorithme à une représentation au niveau registre de celui-ci en vue de son implantation sur un circuit numérique. Si le problème reste à ce jour largement ouvert pour des algorithmes quelconques, des solutions ont commencé à voir le jour au sein de domaines spécifiques. C’est notamment le cas dans le domaine du traitement d’images où l’utilisation du modèle flot de données offre un bon compromis entre expressivité et efficacité. C’est ce que nous cherchons à démontrer dans cette thèse, qui traite de l’applicabilité du modèle flot de données au problème de la synthèse haut niveau à travers deux exemples d’implantation d’applications de vision complexes sur FPGA. Les applications, issues du domaine de l’apprentissage supervisé sont un système de classification à bases de machines à vecteurs supports (SVM) et un système de reconnaissance exploitant un réseau de neurones convolutionnels (CNN). Dans les deux cas, on étudie les problématiques posées par la reformulation, au sein du modèle flot de données, des structures de données et algorithmes associés ainsi que l’impact de cette reformulation sur l’efficacité des implémentations résultantes. Les expérimentations sont menées avec CAPH, un outil de HLS exploitant le modèle flot de données<br>High-level synthesis is a field of research that aims to automate the transformation from an high-level algorithmic description to a register level representation for its implementation on a digital circuit. Most of existing tools based on imperative languages try to provide a general solution to any type of existing algorithm. This approach can be inefficient in some applications where the algorithm description relies on a different paradigm from the hardware execution model. This major drawback can be figured out by the use of specific langages, named Domain Specific Language (DSL). Applied to the image processing field, the dataflow model appears as a good compromise between the expressiveness of the algorithm description and the final implementation efficiency. This thesis address the use of the dataflow programming model as response to high-level synthesis problematics for image processing algorithms on FPGA. To demonstrate the effectiveness of the proposed method but also to put forth the algorithmic reformulation effort to be made by the developer, an ambitious class of applications was chosen : supervised machine learning systems. It will be addressed in particular two algorithms, a classification system based on Support Vector Machine and a convolutional neural network. Experiments will be made with the CAPH langage, a specific HLS tool based on the dataflow programming model
APA, Harvard, Vancouver, ISO, and other styles
31

Kchir, Selma. "Faciliter le développement des applications de robotique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01071062.

Full text
Abstract:
L'un des challenges des roboticiens consiste à gérer un grand nombre de variabilités. Ces dernières concernent les concepts liés au matériel et aux logiciels du domaine de la robotique. Par conséquent, le développement des applications de robotique est une tâche complexe. Non seulement, elle requiert la maîtrise des détails de bas niveau du matériel et du logiciel mais aussi le changement du matériel utilisé dans une application entraînerait la réécriture du code de celle-ci. L'utilisation de l'ingénierie dirigée par les modèles dans ce contexte est une voie prometteuse pour (1) gérer les problèmes de dépendance de bas niveau des applications des détails de bas niveau à travers des modèles stables et (2) faciliter le développement des applications à travers une génération automatique de code vers des plateformes cibles. Les langages de modélisation spécifiques aux domaines mettent en oeuvre les techniques de l'ingénierie dirigée par les modèles afin de représenter les concepts du domaine et permettre aux experts de celui-ci de manipuler des concepts qu'ils ont l'habitude d'utiliser. Cependant, ces concepts ne sont pas suffisants pour représenter tous les aspects d'une application car ils très généraux. Il faudrait alors s'appuyer sur une démarche pour extraire des abstractions à partir de cas d'utilisations concrets et ainsi définir des abstractions ayant une sémantique opérationnelle. Le travail de cette thèse s'articule autour de deux axes principaux. Le premier axe concerne la contribution à la conception d'un langage de modélisation spécifique au domaine de la robotique mobile (RobotML). Nous extrayons à partir d'une ontologie du domaine les concepts que les roboticiens ont l'habitude d'utiliser pour la définition de leurs applications. Ces concepts sont ensuite représentés à travers une interface graphique permettant la représentation de modèles afin d'assurer une facilité d'utilisation pour les utilisateurs de RobotML. On offre ainsi la possibilité aux roboticiens de représenter leurs scénarios dans des modèles stables et indépendants des plateformes cibles à travers des concepts qu'ils ont l'habitude de manipuler. Une génération de code automatique à partir de ces modèles est ensuite possible vers une ou plusieurs plateformes cibles. Cette contribution est validée par la mise en oeuvre d'un scénario aérien dans un environnement inconnu proposé par l'ONERA. Le deuxième axe de cette thèse tente de définir une approche pour rendre les algorithmes résistants aux changements des détails de ba niveau. Notre approche prend en entrée la description d'une tâche de robotique et qui produit : un ensemble d'abstractions non algorithmiques représentant des requêtes sur l'environnment y compris le robot ou des actions de haut niveau , un ensemble d'abstractions algorithmiques encapsulant un ensemble d'instructions permettant de réaliser une sous-tâche de la tâche étudiée , algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l'impact du changement du matériel et des stratégies définies dans les sous-tâches n'est pas très important. Il suffit d'adapter l'implantation de ces abstractions sans avoir à modifier l'algorithme générique. Cette approche est validée sur six variantes d'une famille d'algorithmes de navigation appelée Bug.
APA, Harvard, Vancouver, ISO, and other styles
32

Paugnat, Franck. "Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00800204.

Full text
Abstract:
Les systèmes sur puces intègrent aujourd'hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s'accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d'abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d'abstraction à partir duquel l'utilisation d'un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d'identifier l'étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d'un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d'illustrer ce que pourrait être un élément d'une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.
APA, Harvard, Vancouver, ISO, and other styles
33

Morawiec, Adam. "Amélioration des performances de la simulation des modèles décrits en langages de description de matériel." Université Joseph Fourier (Grenoble ; 1971-2015), 2000. http://www.theses.fr/2000GRE10173.

Full text
Abstract:
La complexite des systemes electroniques, due au progres de la technologie microelectronique, necessite une augmentation correspondante de la productivite des methodes de conception et de verification. Une faible performance de la simulation est un des obstacles majeurs a une conception rapide et peu couteuse de produits de haute qualite. Dans cette these nous proposons des methodes pour ameliorer la performance d'une simulation dirigee par evenements ou par horloge de modeles decrits en langages de description de materiel. Nous presentons d'abord les methodes automatisees d'optimisation et de transformation de modeles vhdl, pour l'accelerer la simulation dirigee par evenements. Elles sont fondees sur une analyse precise de la performance en simulation de diverses constructions du langage vhdl, et permettent de convertir le modele initial en un autre modele plus efficace, tout en garantissant l'invariance de son comportement. D'autres techniques d'acceleration utilisent l'abstraction du modele : abstraction comportementale, de types de donnees ou d'objets et permettent de supprimer du modele des details inutiles dans le cas d'une simulation particuliere. Des outils prototype compatibles avec les simulateurs existants sont developpes. Pour ameliorer l'efficacite de la simulation dirigee par horloge, nous introduisons une representation de la fonctionnalite du systeme par graphes de decision de haut niveau (dds). Diverses formes de dds -graphes vectoriels, compresses ou non et graphes orientes registres - sont definis pour optimiser une representation du systeme sur plusieurs niveaux d'abstraction. De plus, de nouveaux algorithmes plus rapides d'evaluation des reseaux de dds sont developpes. Ils emploient, seuls ou en combinaison, les deux techniques de simulation : la technique dirigee par evenements et l'evaluation retrogradee. L'ensemble des prototypes fonde sur ces methodes permet d'obtenir un gain de performances prometteur par rapport aux outils commerciaux.
APA, Harvard, Vancouver, ISO, and other styles
34

Huet, Sylvain Guillaume. "Intégration des contraintes d'interface dans la conception plate-forme, application à la radiocommunication." Lorient, 2006. http://www.theses.fr/2006LORIS078.

Full text
Abstract:
Pour tirer profits des avancées de la micro électronique, il est nécessaire que la productivité des concepteurs de systèmes électroniques évolue également selon la même tendance. Une piste de progrès certaine consiste à relever le niveau d'abstraction pour la spécification de ces systèmes et automatiser leur raffinement vers l'implémentation. Dans ce contexte, il est particulièrement intéressant d'envisager l'utilisation conjointe de l'outil CoFluent Studio, issu des recherches de l'équipe MCSE de l'école polytechnique de l'Université de Nantes, commercialisé par la société CoFluent Design et de l'outil GAUT développé par le LESTER de l'Université de Bretagne Sud. Le premier outil permet de modéliser et estimer les performances des systèmes électroniques à haut niveau d'abstraction, le second permet de raffiner une spécification algorithmique vers une implémentation matérielle. Toutefois, il est nécessaire de compléter ces démarches de développement par l'étude des niveaux d'abstraction inférieurs afin de vérifier si les performances estimées sont vérifiées pour les vues raffinées et pour optimiser l'implémentation du système. Dans ce contexte, nous proposons deux approches dans ce mémoire. La première repose sur l'identification d'un niveau d'abstraction que nous qualifions de transactionnel à grains fins. Nous étudions alors le problème de la modélisation de la fonctionnalité lors d’un raffinement vers ce type de modèle. Nous faisons également une seconde proposition d'adaptateur de communication permettant d'assembler des composants décrits au niveau transactionnel à grains fins mais aussi des composants décrits au niveau système. Nous illustrons ces propositions sur l'étude d'un modulateur MIMO+OFDM utilisé en communications numériques. Ce travail a été mené dans le cadre du projet PALMYRE, financé par CPER 2000-2006 de la région Bretagne<br>If we want to take advantage of technological evolutions, designer’s productivity has to increase in the same proportions as the component integration on integrated circuits. To take up this challenge, system level design solutions have to be set up. In this context, the joint use of CoFluent Studio distributed by CoFluent design, originally developed by the MCSE team of the Ecole polytechnique de l'Université de Nantes, and GAUT developed by the LESTER lab of the Université de Bretagne Sud is especially relevant. The first tool allows to model and estimate the performances of the systems at a high level of abstraction and the second allows to automatically refine an abstract algorithmic specification down to its hardware implementation. Nevertheless, these approaches require to be completed by the analysis of models of lower levels of abstraction, on the one hand to verify if the targeted performance estimated at higher levels is satisfied and on the other hand to optimize the implementation costs of the system. In this context, we propose two original contributions. Firstly, we propose a fine grain transactional level of abstraction which we use to study the impact of the fine grain data order in a system on the implementation cost of the system. Secondly, in continuity with the first proposal, we propose a communication wrapper which allows to interconnect fin grain transactional components just as easily as system level components. We illustrate these propositions on the study of a MIMO+OFDM transmitter. This work takes place in the PALMYRE project which was financed by the CPER 2000-2006 of the région Bretagne
APA, Harvard, Vancouver, ISO, and other styles
35

Simatic, Jean. "Flot de conception pour l'ultra faible consommation : échantillonnage non-uniforme et électronique asynchrone." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT084/document.

Full text
Abstract:
Les systèmes intégrés sont souvent des systèmes hétérogènes avec des contraintes fortes de consommation électrique. Ils embarquent aujourd'hui des actionneurs, des capteurs et des unités pour le traitement du signal. Afin de limiter l'énergie consommée, ils peuvent tirer profit des techniques évènementielles que sont l'échantillonnage non uniforme et l'électronique asynchrone. En effet, elles permettent de réduire drastiquement la quantité de données échantillonnées pour de nombreuses classes de signaux et de diminuer l'activité. Pour aider les concepteurs à développer rapidement des plateformes exploitant ces deux techniques évènementielles, nous avons élaboré un flot de conception nommé ALPS. Il propose un environnement permettant de déterminer et de simuler au niveau algorithmique le schéma d'échantillonnage et les traitements associés afin de sélectionner les plus efficients en fonction de l'application ciblée. ALPS génère directement le convertisseur analogique/numérique à partir des paramètres d'échantillonnage choisis. L'élaboration de la partie de traitement s'appuie quant à elle sur un outil de synthèse de haut niveau synchrone et une méthode de désynchronisation exploitant des protocoles asynchrones spécifiques, capables d'optimiser la surface et la consommation du circuit. Enfin, des simulations au niveau porteslogiques permettent d'analyser et de valider l'énergie consommée avant de poursuivre par un flot classique de placement et routage. Les évaluations conduites montrent une réduction d'un facteur 3 à 8 de la consommation des circuits automatiquement générés. Le flot ALPS permet à un concepteur non-spécialiste de se concentrer sur l'optimisation de l'échantillonnage et de l'algorithme en fonction de l'application et de potentiellement réduire d'un ou plusieurs ordres de grandeur la consommation du circuit<br>Integrated systems are mainly heterogeneous systems with strong powerconsumption constraints. They embed actuators, sensors and signalprocessing units. To limit the energy consumption, they can exploitevent-based techniques, namely non-uniform sampling and asynchronouscircuits. Indeed, they allow cutting drastically the amount of sampleddata for many types of signals and reducing the system activity. To helpdesigners in quickly developing platforms that exploit those event-basedtechniques, we elaborated a design framework called ALPS. It proposes anenvironment to determine and simulate at algorithmic level the samplingscheme and the associated processing in order to select the mostefficient ones depending on the targetted application. ALPS generatesdirectly the analog-to-digital converter based on the chosen samplingparameters. The elaboration of the processing unit uses a synchronoushigh-level synthesis tool and a desynchronization method that exploitsspecific asynchronous protocols to optimize the circuit area and powerconsumption. Finally, gate-level simulations allow analyzing andvalidating the energy consumption before continuing with a standardplacement and routing flow. The conducted evaluations show a reductionfactor of 3 to 8 of the consumption of the automatically generatedcirctuis. The flow ALPS allow non-specialists to concentrate on theoptimization of the sampling and the processing in function of theirapplication and to reduice the circuit power consumptions by one toseveral orders of magnitude
APA, Harvard, Vancouver, ISO, and other styles
36

Charafeddine, Jinan. "Caractérisation et intégration des signaux musculaires pour le pilotage d'un exosquelette des membres inférieurs lors d' activités locomotrices." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASW005.

Full text
Abstract:
Les activités quotidiennes sont une source de fatigue et de stress pour les personnes souffrant de spasticité des membres inférieurs. Une meilleure compréhension des mécanismes du mouvement permet ainsi de proposer des modèles innovant de contrôle des exosquelettes d’assistance. L’assistance doit être introduite tout en conservant le fait que le contrôle du patient reste prioritaire. Cette thèse vise à développer une telle application dans le contexte de la marche sur l’exosquelette développé au Laboratoire d’Ingénierie des Systèmes de Versailles (LISV). Les résultats applicatifs de cette thèse s’appuient sur la base de données enregistrée au laboratoire END-ICAP avec des capteurs de la marche pour des sujets sains, des personnes IMC et des personnes ayant eu un AVC. La principale contribution est la proposition d’une nouvelle méthode de contrôle neuromoteur d’un exosquelette interactif permettant la réadaptation nécessaire des membres. Elle consiste à déterminer et à complémenter les consignes motrices liées au mouvement d’un patient, tout en gardant son expertise dans son mouvement, l’assistance au besoin et la détection de son intention de provoquer ce mouvement à partir d’une fusion d’information. Les résultats obtenus montrent que l’indice proposé caractérise la relation de la différence d’angle avec un mouvement de référence pour chaque articulation, permet de compenser dynamiquement les mouvements de façon efficace et sûre, applicable pour les études de pathologie de la marche et pour le contrôle de la marche dans l’assistance robotique des personnes<br>Daily activities are a source of fatigue and stress for people with lower limb spasticity. A better understanding of the mechanisms of movement thus makes it possible to propose innovative models for control-ling assistance exoskeletons. The assistance should be introduced while retaining the fact that patient control remains a priority. This thesis aims to develop such an application in the context of walking on the exoskeleton developed at the Laboratory of Systems Engineering of Versailles (LISV). The application results of this thesis are based on the database recorded at the END-ICAP laboratory with gait sensors for healthy subjects, PC people, and people with stroke. The main contribution is the proposal of a new method of neuromotor control of an interactive exoskeleton allowing the necessary rehabilitation of the members. It consists of determining and supplementing the motor instructions related to a patient’s movement while retaining his expertise in his movement, assisting when necessary, and detecting his intention to cause this movement from a fusion of information. The results obtained show that the proposed index characterizes the relationship of the angle difference with a reference movement for each joint, which allows a dynamic compensation of the movements in an efficient and safe manner, applicable for gait pathology studies, and for walking control in robotic assistance for people
APA, Harvard, Vancouver, ISO, and other styles
37

Legaux, Joeffrey. "Squelettes algorithmiques pour la programmation et l'exécution efficaces de codes parallèles." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00990852.

Full text
Abstract:
Les architectures parallèles sont désormais présentes dans tous les matériels informatiques, mais les pro- grammeurs ne sont généralement pas formés à leur programmation dans les modèles explicites tels que MPI ou les Pthreads. Il y a un besoin important de modèles plus abstraits tels que les squelettes algorithmiques qui sont une approche structurée. Ceux-ci peuvent être vus comme des fonctions d'ordre supérieur synthétisant le comportement d'algorithmes parallèles récurrents que le développeur peut ensuite combiner pour créer ses programmes. Les développeurs souhaitent obtenir de meilleures performances grâce aux programmes parallèles, mais le temps de développement est également un facteur très important. Les approches par squelettes algorithmiques fournissent des résultats intéressants dans ces deux aspects. La bibliothèque Orléans Skeleton Library ou OSL fournit un ensemble de squelettes algorithmiques de parallélisme de données quasi-synchrones dans le langage C++ et utilise des techniques de programmation avancées pour atteindre une bonne efficacité. Nous avons amélioré OSL afin de lui apporter de meilleures performances et une plus grande expressivité. Nous avons voulu analyser le rapport entre les performances des programmes et l'effort de programmation nécessaire sur OSL et d'autres modèles de programmation parallèle. La comparaison rigoureuse entre des programmes parallèles dans OSL et leurs équivalents de bas niveau montre une bien meilleure productivité pour les modèles de haut niveau qui offrent une grande facilité d'utilisation tout en produisant des performances acceptables.
APA, Harvard, Vancouver, ISO, and other styles
38

Karmacharya, Ashish. "Intégration d'une couche spatiale dans l'architecture du Web sémantique : une proposition via la plateforme ArchaeoKM." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00638602.

Full text
Abstract:
L'analyse spatiale de données géographies connaît un regain d'intérêt dans la communauté des bases de données relationnelles. Plus spécifiquement, les opérations et les fonctions spatiales utilisées comme base de l'analyse spatiale sont implémentées par les grands noms des systèmes de gestion de bases de données relationnelles limitant ainsi l'hétérogénéité structurelle des systèmes. En outre, la littérature est abondante en publications dans le domaine des ontologies spatiales afin de limiter l'hétérogénéité sémantique des sources de données tout en améliorant l'interopérabilité de ces données. Bien que l'interopérabilité des données soit l'un des objectifs du Web Sémantique, tout le potentiel de ces outils et de ces techniques basés sur la connaissance n'a pas été révélé. Avec l'influence sans cesse croissante du Web Sémantique à travers ces outils et applications en gestion de la connaissance et système intelligent, les applications utilisant des données géospatiales suivent ce phénomène en bénéficiant de son influence. Cette thèse se focalise sur l'utilisation de la connaissance métier afin de gérer des données spatiales à l'aide des technologies du Web sémantique. L'activité de recherche menée dans le cadre de cette thèse est réalisée sur des données provenant du domaine de l'archéologie industrielle. Cet environnement se caractérise par son hétérogénéité et sa grande quantité de données offrant ainsi un cadre idéal pour la réalisation d'un outil de gestion de connaissance. Cet outil basé sur les technologies du Web Sémantique a été prototypé sous le nom d'ArchaeoKM suivant le principe des 4 K, Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. Ce même principe est mis en œuvre pour les données spatiales. Une ontologie de haut niveau a été développée pour servir de cadre applicatif à la gestion des données spatiales permettant d'ajuster une ontologie de domaines sans composante spatiale. Le processus de gestion de la connaissance commence avec l'acquisition de la signature spatiale des objets identifiés. Cette signature est stockée dans un système de gestion de bases de données spatiales et est référencée par l'objet correspondant dans la base de connaissance. La connaissance spatiale de ces objets est générée à l'aide des fonctions et des opérations spatiales au niveau de la base de données spatiale et l'enrichissement de la base de connaissance est réalisé avec le résultat de ces opérations et fonctions. L'inférence de nouvelle connaissance sur la base des données existante est réalisée à l'aide de SWRL (Semantic Web Rule Language). De plus, ce langage a été étendu à l'aide de nouveaux built-ins spatiaux afin de prendre en sidération la dimension spatiale des données. De même, cette dimension spatiale a été apportée au langage SPARQL afin de réaliser des requêtes spatiales sur la base de connaissances.En effet, l'objectif principal de cette thèse est d'initier le premier pas vers l'intégration des composantes spatiales avec les technologies du Web Sémantique. Le processus d'intégration est premier plan pour les deux technologies. D'un point de vue Web Sémantique, l'intégration de données non communes dans ce cadre applicatif ouvre la porte à l'intégration de données beaucoup plus large. D'un point de vue des systèmes d'information géographique, l'inclusion de la connaissance permet une gestion métier des données rendant l'analyse plus proche de l'interprétation humaine.
APA, Harvard, Vancouver, ISO, and other styles
39

Gautreau, Aurore. "Compréhension de la parole dans la parole : une approche inter-langues pour évaluer les interférences linguistiques durant la compréhension." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO20124/document.

Full text
Abstract:
Cette thèse s’est intéressée aux interférences linguistiques intervenant dans la situation de la parole dans la parole, en comparant l’effet de masque de masqueurs paroliers générés dans une langue intelligible pour les participants (français) à celui de masqueurs paroliers générés dans des langues non connues (gaélique irlandais et italien), sur l’identification de mots cibles français. Une tâche de décision lexicale à -5 dB nous a permis d’observer des résultats significativement différents entre les masqueurs paroliers générés dans les langues inconnues (irlandais et italien), avec les masqueurs paroliers italiens qui ont réduit l’intelligibilité des mots cibles français avec la même efficacité que les masqueurs paroliers français, alors que les masqueurs paroliers irlandais ont conduit aux performances les plus élevées. L’utilisation de masqueurs de bruit fluctuant générés à partir de chacun des masqueurs paroliers, a montré que seuls les masqueurs paroliers générés dans une langue intelligible ont produit des interférences linguistiques de haut niveau en plus d’interférences acoustiques et linguistiques de bas niveau. Ainsi, la différence de performances observée entre les masqueurs paroliers irlandais et italiens serait expliquée au niveau acoustique et non à un niveau linguistique. De plus, bien que les masqueurs paroliers italiens et français aient eu des effets de masque équivalents, leurs interférences étaient de natures différentes. Lorsque l’italien devient intelligible pour les participants, les masqueurs paroliers italiens, comme ceux générés en français, produisent des interférences linguistiques de haut niveau, et ce, que les mots cibles soient produits dans la langue native des participants ou dans leur langue seconde<br>This research aimed to explore the linguistic interference that occurs during the speech-in-speech situation, by comparing the masking effects of speech backgrounds that were produced in an intelligible language for the participants (i.e., French), to the masking effects of speech backgrounds that were produced in unknown foreign languages (i.e., Irish and Italian), on the identification of French target words. At -5 dB SNR, a lexical decision task revealed significantly divergent results with the unknown languages (i.e., Irish and Italian), with Italian and French speech backgrounds hindering French target word identification to a similar extent, whereas Irish speech backgrounds led to significantly better performances. Using fluctuating noise backgrounds derived from each speech background signals, showed that only the speech backgrounds generated in an intelligible language (i.e., French) produced linguistic interference of high level in addition to acoustic interference and linguistic interference of low level. Thus, the difference observed between the speech backgrounds in Irish and Italian can be explained at an acoustic level but not at a linguistic level. Moreover, although the speech backgrounds in French and in Italian had equivalent masking effects on French word identification, the nature of their interference was different. When Italian became intelligible to the participants, the speech backgrounds in Italian produced linguistic interference of high level like those generated in French, with the target words produced in the native language to the participants or in their second language
APA, Harvard, Vancouver, ISO, and other styles
40

Ammari, A. "ANALYSE DE SÛRETE DES CIRCUITS COMPLEXES DECRITS EN LANGAGE DE HAUT NIVEAU." Phd thesis, 2006. http://tel.archives-ouvertes.fr/tel-00101622.

Full text
Abstract:
La probabilité des fautes transitoires augmente avec l'évolution des technologies. Plusieurs approches ont été proposées pour analyser très tôt l'impact de ces fautes sur un circuit numérique. Il est notamment possible d'utiliser une approche fondée sur l'injection de fautes dans une description VHDL au niveau RTL. Dans cette thèse, nous apportons plusieurs contributions à ce type d'analyse. Un premier aspect considéré est la prise en compte de l'environnement du circuit numérique lors des campagnes d'injection. Ainsi, une approche basée sur une analyse de sûreté de fonctionnement multi-niveaux a été développée et appliquée sur un exemple. Les injections sont réalisées dans le circuit numérique décrit au niveau RTL alors que le reste du système est décrit à un niveau d'abstraction plus élevé. L'analyse des résultats montre que certaines défaillances apparaissant au niveau du circuit n'ont en fait aucun impact sur le système. Nous présentons ensuite les avantages de la combinaison de deux types d'analyses : la classification des fautes en fonction de leurs effets, et l'analyse plus détaillée des configurations d'erreurs activées dans le circuit. Une campagne d'injection de fautes de type SEU a été réalisée sur un microcontrôleur 8051 décrit au niveau RTL. Les résultats montrent que la combinaison des analyses permet au concepteur de localiser les points critiques, facilitant l'étape de durcissement. Ils montrent également que, dans le cas d'un processeur à usage général, les configurations d'erreurs peuvent être dépendantes du programme exécuté. Cette étude a également permis de montrer que l'injection d'un très faible pourcentage des fautes possibles permet déjà d'obtenir des informations utiles pour le concepteur. La même méthodologie a été utilisée pour valider la robustesse obtenue avec un durcissement au niveau logiciel. Les résultats montrent que certaines fautes ne sont pas détectées par les mécanismes implémentés bien que ceux-ci aient été préalablement validés par des injections de fautes basées sur un simulateur de jeu d'instructions. Le dernier aspect de cette thèse concerne l'injection de fautes dans des blocs analogiques. En fait très peu de travaux traitent du sujet. Nous proposons donc un flot global d'analyse pour circuits numériques, analogiques ou mixtes, décrits au niveau comportemental. La possibilité d'injecter des fautes dans des blocs analogiques est discutée. Les résultats obtenus sur une PLL, choisie comme cas d'étude, sont analysés et montrent la faisabilité de l'injection de fautes dans des blocs analogiques. Pour valider le flot, des injections de fautes sont également réalisées au niveau transistor et comparées à celles réalisées à haut niveau. Il apparaît une bonne corrélation entre les résultats obtenus aux deux niveaux.
APA, Harvard, Vancouver, ISO, and other styles
41

Boughzala, Bochra. "Netlang : un langage de haut niveau pour les routeurs programmables dans le contexte des réseaux SDN." Mémoire, 2013. http://www.archipel.uqam.ca/5800/1/M12992.pdf.

Full text
Abstract:
Développer des applications réseaux pour des routeurs programmables basés sur les Network Processors (NPs) implique l'utilisation de langages de bas-niveau et d'outils propriétaires fortement dépendants des architectures matérielles sous-jacentes. Le code source, généralement écrit en langage assembleur, n'est pas facile à écrire et cause des problèmes de maintenance. Les applications résultantes sont également difficiles à déboguer. Dans ce mémoire nous proposons NETLANG, un nouveau langage de programmation de haut-niveau dédié aux NPs. De plus d'être un langage simple et élégant, de réduire les coûts de développement et de la maintenance, et d'améliorer la réutilisation du code, NETLANG a pour objectif essentiel de décrire le comportement des paquets dans un NP. NETLANG est un langage qui permet de développer des applications de traitement de paquets. Il établit deux niveaux. Le premier niveau du langage offre une abstraction et une description du routeur à travers un pipeline de tables OpenFlow et des règles de forwarding ayant l'aptitude d'être modifiées dynamiquement et donc de permettre de changer le comportement du routeur à la volée. La sémantique du langage est inspirée du protocole OpenFlow qui a permis d'exprimer les principales tâches de traitement de paquets telles que le parsing, le lookup et la modification. Le langage est bâti en respectant le modèle des Software Defined Networks (SDNs) qui définit un nouveau plan de séparation entre le control plane et le data plane. Le deuxième niveau de NETLANG est traduit en matériel et permet l'adaptabilité du langage à plusieurs plateformes. Des adaptateurs spécifiques à des plateformes différentes sont intégrés au compilateur de NETLANG et permettent de rendre le langage portable. En effet, nous avons utilisé deux environnements pour l'implémentation de NETLANG ; le NP4 d'EZchip caractérisé par sa structure de TOPs (Task Optimized Processors) en pipeline et le NFP-3240 de Netronome connu pour son parallélisme et l'exploitation du multithreading. La validation de NETLANG s'est basée sur un ensemble d'applications réseau ayant des complexités et des domaines différents. A travers ce mémoire nous avons démontré qu'on est capable d'avoir aujourd'hui un langage pour les routeurs programmables. La sémantique d'OpenFlow, sur laquelle nous avons basé notre langage NETLANG, est suffisante et même pertinente en termes de description de comportement des paquets dans un NP. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : langages à domaine spécifique, réseaux programmables, processeurs de réseau.
APA, Harvard, Vancouver, ISO, and other styles
42

Morawiec, A. "Amélioration de performance de la simulation des modèles décrits en langages de description de matériel." Phd thesis, 2000. http://tel.archives-ouvertes.fr/tel-00002983.

Full text
Abstract:
La complexité des systèmes électroniques, due au progrès de la technologie microélectronique, nécessite une augmentation correspondante de la productivité des méthodes de conception et de vérification. Une faible performance de la simulation est un des obstacles majeurs à une conception rapide et peu coûteuse de produits de haute qualité. Dans cette thèse nous<br />proposons des méthodes pour améliorer la performance d'une simulation dirigée par événements ou par horloge de modèles décrits en langages de description de matériel. Nous présentons d'abord les méthodes automatisées d'optimisation et de transformation de modèles VHDL, pour l'accélérer la simulation<br />dirigée par événements. Elles sont fondées sur une analyse précise de la performance en simulation de diverses constructions du langage VHDL, et permettent de convertir le modèle initial en un autre modèle<br />plus efficace, tout en garantissant l'invariance de son comportement. D'autres techniques d'accélération utilisent l'abstraction du modèle : abstraction comportementale, de types de données ou d'objets et permettent de supprimer du modèle des détails inutiles dans le cas d'une simulation particulière. Des outils prototype compatibles avec les simulateurs<br />existants sont développés. Pour améliorer l'efficacité de la simulation dirigée par horloge, nous introduisons une représentation de la fonctionnalité du système par graphes de décision de haut niveau (DDs). Diverses formes de DDs<br />– graphes vectoriels, compressés ou non et graphes orientés registres<br />– sont définis pour optimiser une représentation du système sur plusieurs niveaux d'abstraction. De plus, de nouveaux algorithmes plus rapides d'évaluation des réseaux de DDs sont développés. Ils emploient, seuls ou en combinaison, les deux techniques de simulation : la technique dirigée par événements et l'évaluation rétrogradée. L'ensemble des prototypes fondé sur ces méthodes permet d'obtenir un gain de performances prometteur par rapport aux outils commerciaux
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography