To see the other types of publications on this topic, follow the link: Modèle de l'utilisateur.

Dissertations / Theses on the topic 'Modèle de l'utilisateur'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 33 dissertations / theses for your research on the topic 'Modèle de l'utilisateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Thomas, Isabelle. "Modèle de l'utilisateur, modèle de la tache et modèles d'explications pour expliquer dans le contexte des taches de conception : application en conception d'équipements électroniques." Paris 13, 1993. http://www.theses.fr/1993PA132026.

Full text
Abstract:
Les systèmes a base de connaissances sont aujourd'hui exploites pour réaliser des taches complexes, comme la recherche documentaire, du conseil financier, ou de la conception d'équipements électroniques, qui nécessitent non seulement de mettre en œuvre un raisonnement, mais encore d'instaurer une coopération entre le systeme informatique et son utilisateur. Cette thèse vise l'amélioration de l'interaction entre un tel systeme et son utilisateur, par le développement des capacités d'explication du premier. Notre réflexion est issue d'une étude de cas, le développement d'un module d'explication pour un systeme d'aide a la conception d'équipements électroniques de satellites. Nous proposons de considérer l'explication comme une forme de communication qui respecte un principe de coopération, i. E. Qui dépasse la réponse directe a la question de l'interlocuteur, en lui apportant des informations qu'il n'a pas explicitement demandées mais qui vont faciliter sa compréhension. Nous soutenons que la mise en œuvre du principe de coopération est spécifique de la tache pour laquelle le systeme est utilise. Nous avons élaboré une méthode de construction d'explications qui comporte trois phases. La première phase analyse la question de l'utilisateur et en construit une représentation conceptuelle. La deuxième phase construit une représentation conceptuelle de l'explication, qui spécifie son contenu informatif et sa structure rhétorique. Dans un premier temps, un schéma explicatif est sélectionné puis instancie par rapport au contexte de l'interaction. Dans un deuxième temps, l'explication ainsi construite est complétée de manière opportuniste, par des informations destinées à bloquer les inférences incorrectes et a devances les nouvelles questions de l'utilisateur. La troisième phase engendre le texte correspondant à l'explication conceptuelle
APA, Harvard, Vancouver, ISO, and other styles
2

Nadal, Maurin. "Assistance à l'utilisateur novice dans le cadre du dessin de graphe à l'aide de méthodes d'apprentissage." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00981993.

Full text
Abstract:
Cette thèse se concentre sur la problématique suivante : comment assister un utilisateur novice pour l'aider à obtenir un dessin de son graphe qui soit adapté à ses besoins ? En effet, les méthodes de dessins actuelles, très nombreuses, nécessitent une grande expertise pour obtenir un dessin de bonne qualité. Or, par manque d'expertise, les utilisateurs novices ne peuvent pour l'instant pas produire des dessins d'une telle qualité à partir de leurs données. La solution proposée consiste à mettre en place un système interactif proposant à l'utilisateur différents dessins pour un même graphe afin qu'il obtienne un résultat qui réponde correctement à ses besoins. Ce système se base sur un algorithme de force modifié utilisé par un système d'algorithme génétique hautement modulable. L'objectif de la modification apportée à l'algorithme de dessin étant de pouvoir générer plusieurs dessins intéressants pour un même graphe.
APA, Harvard, Vancouver, ISO, and other styles
3

Laitano, María Inés. "Le modèle trifocal : une approche communicationnelle des interfaces numériques : Contributions à la conception d'interfaces accessibles." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080025.

Full text
Abstract:
: Objet d'étude pour plusieurs disciplines, l'interface numérique se présente comme un objet hétérogène : un dialogue humain-ordinateur, le reflet d’un modèle mental, un instrument, un ensemble de signes sémiotiques… Toutes ces dimensions, traitées individuellement par les approches disciplinaires, n’ont jamais été rassemblées dans un cadre paradigmatique commun. Cette thèse soutient que l’interface, en tant qu’objet d’étude complexe, doit être abordée dans un cadre capable de traiter cette complexité. Elle propose de le faire par la systémique communicationnelle et de poser la réflexion, non pas en termes d’attributs de qualité de l’interface (utilisabilité, communicabilité, convivialité…), mais en termes de significations. Cela implique de centrer le modèle sur l’humain et fournit une vision intégrée, non parcellisée, de l’interface permettant de concevoir de nouvelles interfaces, de les implémenter dans des contextes et des modalités sensorielles diverses.Le modèle trifocal est ainsi une approche systémique de la communication via l’interface. Il étudie les rapports de l’usager à la machine, à l’objet de son activité et au concepteur, ainsi que les propriétés émergentes de ce système. Le modèle trifocal fournit une description de l’interface transposable d'une modalité à une autre. Il permet, d’une part, l’étude de la signification d’interfaces non visuelles et, d’autre part, la traduction d’interfaces d’une modalité dans une autre. Le modèle trifocal jette un regard nouveau sur la conception d’interfaces accessibles puisqu’il complète les méthodes existantes avec des nouvelles dimensions d’analyse
Object of study for several disciplines, digital interfaces appear as a heterogeneous object: a human-computer dialogue, a reflection of a mental model, an instrument, a set of semiotic signs ... All these dimensions, addressed individually by disciplinary approaches, have never been gathered in a common paradigmatic framework. This thesis argues that interfaces, as a complex object of study, must be addressed in a framework capable of dealing with this complexity. It proposes to do so by the Systemic Communication Theory and to think about not in terms of interface quality attributes (usability, communicability, conviviality...) but in terms of meanings. This implies a human-centered model and provides an integrated point of view enabling the design of new interfaces as well as their implementation in numerous contexts and sensory modalities.The trifocal model is thus a systemic approach to communication via the interface. It studies the relationships between user and machine, between user and object of his activity and between user and designer, as well as emergent properties of the system. The trifocal model provides an interface description transposable from one modality to another. It allows, on one hand, to study the meaning of non-visual interfaces and, on the other, to translate interfaces from one modality to another. The trifocal model takes a fresh look on designing accessible interfaces since it complements existing methods with new analytical dimensions
APA, Harvard, Vancouver, ISO, and other styles
4

Krichene, Haná. "SCAC : modèle d'exécution faiblement couplé pour les systèmes massivement parallèles sur puce." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10093.

Full text
Abstract:
Ce travail propose un modèle d'exécution pour les systèmes massivement parallèles qui vise à assurer le recouvrement des communications par les calculs. Le modèle d'exécution défini dans cette thèse est nommé SCAC: Synchronous Communication Asynchronous Computation. Ce modèle faiblement couplé, sépare l'exécution des phases de communication de celles de calculs afin de faciliter leur chevauchement pour recouvrir les délais de transfert de données. Pour permettre l'exécution simultanée de ces deux phases, nous proposons une approche basée sur trois niveaux: deux niveaux de contrôle hiérarchiques globalement centralisés/localement distribués et un niveau de calcul parallèle. Une implémentation générique et paramétrique du modèle SCAC a été réalisée afin de permettre la conception d'une architecture qui convient à l'application. Cette implémentation donne la possibilité au concepteur de choisir les composants de son système parmi un ensemble de composants préconçus, et d'en fixer les paramètres afin de construire la configuration SCAC adéquate à l'exécution de son application. Une estimation analytique est ensuite proposée pour évaluer les performances d'une application exécutée en mode SCAC. Cette estimation permet de prédire le temps d'exécution sans passer par l'implémentation physique afin de faciliter la conception du programme parallèle et la définition de la configuration de l'architecture SCAC. Le modèle SCAC a été validé par simulation, synthèse et implémentation sur une plateforme FPGA en traitant différents exemples d'applications de calcul parallèle. La comparaison des résultats obtenus par le modèle SCAC avec d'autres modèles a montré son efficacité en termes de flexibilité et d'accélération du temps d'exécution
This work proposes an execution model for massively parallel systems aiming at ensuring the communications overlap by the computations. The execution model defined in this PhD thesis is named SCAC: Synchronous Communication Asynchronous Computation. This weakly coupled model separates the execution of communication phases from those of computation in order to facilitate their overlapping, thus covering the data transfer time. To allow the simultaneous execution of these two phases, we propose an approach based on three levels: two globally-centralized/locally-distributed hierarchical control levels and a parallel computation level. A generic and parametric implementation of the SCAC model was performed to fit different applications. This implementation allows the designer to choose the system components (from pre-designed ones) and to set its parameters in order to build the adequate SCAC configuration for the target application. An analytical estimation is proposed to evaluate the performance of an application running in SCAC mode. This estimation is used to predict the execution time without passing through the physical implementation in order to facilitate the parallel program design and the SCAC architecture configuration. The SCAC model was validated by simulation, synthesis and implementation on an FPGA platform, with different examples of parallel computing applications. The comparison of the results obtained by the SCAC model with other models has shown its effectiveness in terms of flexibility and execution time acceleration
APA, Harvard, Vancouver, ISO, and other styles
5

Lavergne-Boudier, Valérie. "Système dynamique d'interrogation des bases de données bibliographiques." Paris 7, 1990. http://www.theses.fr/1990PA077243.

Full text
Abstract:
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
APA, Harvard, Vancouver, ISO, and other styles
6

Gantier, Samuel. "Contribution au design du documentaire interactif : jonction et disjonction des figures de l'utilisateur de B4, fenêtres sur tour, coproduit par France Télévisions." Thesis, Valenciennes, 2014. http://www.theses.fr/2014VALE0031.

Full text
Abstract:
Ces dix dernières années, plusieurs centaines de web-documentaires ont été publiés sur Internet. Si ce format émergent connaît un succès d’estime important auprès des professionnels des médias, son design ne va pas de soi. Dès lors, comment les théories du cinéma documentaire et des médias informatisés éclairent-elles les métamorphoses médiatiques caractéristiques de ces « nouvelles écritures » ? Quels sont les enjeux ontologico-esthétiques et communicationnels d’un documentaire interactif ? Quel rôle et quel pouvoir l’instance d’énonciation doit-elle octroyer à un « spectateur-actant » ? Afin de répondre à ces questions, un état des lieux de la production francophone permet tout d’abord d’établir une typologie des différents modes d’interaction. Ensuite, une approche ethnographique, fondée sur une observation participante du design de B4, fenêtres sur tour, au sein de France Télévisions, interroge l’ensemble des controverses socio-techniques et sémio-pragmatiques qui jalonnent les six mois de conception. Une analyse par théorisation ancrée met en exergue les différentes dimensions d’un Utilisateur Modèle négociées, de manière plus ou moins implicite, par l’ensemble des acteurs. Enfin, les usages supposés du web-documentaire sont confrontés à une évaluation de l’expérience utilisateur. Les jonctions et disjonctions entre les figures d’un Utilisateur Modèle, Statistique et Empirique contribuent in fine à mieux appréhender le design de ce format hybride et non stabilisé
In the last few years, several hundred interactive documentaries (i-docs) have been published on the Internet. If many media professionals prize the i-doc format, its design remains a challenging feat. Given this, what light do film documentary theories and digital media shed on the mediated metamorphoses that typify the “New Writings” movement? What are the communicational and ontologico-aesthetic issues of i-docs? What role and what power should an instance of enunciation accord to the “actant-spectator”?In response to these questions, our study of the current state of the French-speaking production scene brought to the fore a typology of interaction modes. Following this observation, an ethnographic approach, based on a participant observation method, questioned the overall sociotechnical and semio-graphic issues that marked the six-month design process of an i-doc called B4, fenêtres sur tour for the State-run France Télévisions. A Grounded Theory analysis of the data highlighted the different dimensions of a more or less implicit negotiated Model User used by the actors. Finally, the purported uses of i-docs were questioned in evaluating users’ experience. The junctions and disjunctions involving the interaction of the User, Statistical and Empirical Models contributed to a better grasp of the designing of the hybrid and non-stabilised i-doc format
APA, Harvard, Vancouver, ISO, and other styles
7

Lequay, Victor. "Une approche ascendante pour la gestion énergétique d'une Smart-Grid : modèle adaptatif et réactif fondé sur une architecture décentralisée pour un système générique centré sur l'utilisateur permettant un déploiement à grande échelle." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1304.

Full text
Abstract:
Le domaine de la gestion de l'énergie dans les smart grids a été largement exploré ces dernières années, de nombreuses approches différentes étant proposées dans la littérature. En collaboration avec notre partenaire industriel Ubiant, qui déploie des solutions d'optimisation énergétique du bâtiment, nous avons mis en évidence le besoin d'un système vraiment robuste et évolutif exploitant la flexibilité de la consommation résidentielle pour optimiser l'utilisation de l'énergie au sein d'une smart grid. Dans le même temps, nous avons observé que la majorité des travaux existants se concentraient sur la gestion de la production et du stockage et qu'aucune des architectures proposées n'étaient véritablement décentralisées. Notre objectif était alors de concevoir un mécanisme dynamique et adaptatif permettant de tirer parti de toute la flexibilité existante tout en garantissant le confort de l'utilisateur et une répartition équitable des efforts d'équilibrage ; mais aussi de proposer une plate-forme ouverte et modulaire avec laquelle une grande variété d'appareils, de contraintes et même d'algorithmes pourraient être interfacés. Dans cette thèse, nous avons réalisé (1) une évaluation des techniques actuelles de prévision de la consommation individuelle en temps réel, dont les résultats nous ont amenés à suivre (2) une approche ascendante et décentralisée pour l'ajustement diffus résidentiel reposant sur un mécanisme de compensation pour assurer un effacement stable. Sur cette base, nous avons ensuite construit (3) une plate-forme générique centrée sur l'utilisateur pour la gestion de l'énergie dans les réseaux intelligents, permettant une intégration aisée de plusieurs périphériques, une adaptation rapide à l'évolution de l'environnement et des contraintes, ainsi qu'un déploiement efficace
The field of Energy Management Systems for Smart Grids has been extensively explored in recent years, with many different approaches being described in the literature. In collaboration with our industrial partner Ubiant, which deploys smart homes solutions, we identified a need for a highly robust and scalable system that would exploit the flexibility of residential consumption to optimize energy use in the smart grid. At the same time we observed that the majority of existing works focused on the management of production and storage only, and that none of the proposed architectures are fully decentralized. Our objective was then to design a dynamic and adaptive mechanism to leverage every existing flexibility while ensuring the user's comfort and a fair distribution of the load balancing effort ; but also to offer a modular and open platform with which a large variety of devices, constraints and even algorithms could be interfaced. In this thesis we realised (1) an evaluation of state of the art techniques in real-time individual load forecasting, whose results led us to follow (2) a bottom-up and decentralized approach to distributed residential load shedding system relying on a dynamic compensation mechanism to provide a stable curtailment. On this basis, we then built (3) a generic user-centered platform for energy management in smart grids allowing the easy integration of multiple devices, the quick adaptation to changing environment and constraints, and an efficient deployment
APA, Harvard, Vancouver, ISO, and other styles
8

Perron, Marc. "Conception d'une stratégie de commande vectorielle énergétiquement optimale de la machine asynchrone basée sur un modèle des pertes neuronal sur FPGA." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26247/26247.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Khenak, Nawel. "Vers un modèle unifié de la présence spatiale et de ses facteurs : application à l’étude de la téléprésence en environnements immersifs." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG024.

Full text
Abstract:
La "présence spatiale" est le phénomène psycho-cognitif faisant référence à la sensation éprouvée par une personne lorsqu'elle a l'impression de se trouver physiquement dans un espace donné. A l'instar d'autres phénomènes psycho-cognitifs, aucun consensus n'a encore été atteint sur la définition ou le moyen de mesurer cette sensation. Par conséquent, cette thèse s'attèle à établir un modèle de la présence spatiale à travers la mise en lumière de ses facteurs et des outils pour mesurer son intensité. Ainsi, tout en tenant compte des nouvelles avancées technologiques dans le domaine de la Réalité Virtuelle (RV), le premier apport de cette thèse a été de décrire de manière précise les facteurs jouant un rôle dans l'émergence de la présence spatiale au travers d'un modèle conceptuel unifiant les théories existantes.Afin de pouvoir évaluer ce phénomène, il était impératif de trouver des moyens permettant de le quantifier de manière stable. Cette tâche s’avère compliquée au regard de la nature subjective de la présence : les outils les plus utilisés sont les questionnaires administrés à des utilisateurs, à l’issue d’une expérience en environnement contrôlé. Cependant d’autres outils plus objectifs existent, notamment l’analyse comportementale des utilisateurs lorsqu’ils interagissent avec l’environnement. Néanmoins, la fiabilité de ces mesures reste encore sujette à débat. Un second apport de cette thèse a donc été de mettre en place des outils de mesure de la présence spatiale fiables et valides, non seulement en combinant les approches subjectives et objectives déjà existantes, mais en proposant également de nouvelles mesures. Dans cette optique, un questionnaire de présence spatiale a été élaboré. De plus, différentes mesures comportementales ont été testées au travers d’expériences où des utilisateurs devaient accomplir certaines tâches dans différents environnements immersifs. Aussi, une attention particulière a été portée aux environnements distants qui permettent d’engendrer la sensation de « Téléprésence », cette dernière ayant été beaucoup moins étudiée que la présence en environnements virtuels. L’intérêt des environnements distants est que les actions entreprises en leur sein ont des conséquences réelles dans notre monde, ce qui n’est pas le cas des environnements générés par ordinateur dans lesquels les actions restent confinées. De ce fait, les utilisateurs ont conscience de l’impact de leurs actions dans le monde réel, ce qui peut influencer leur comportement et affecter la présence ressentie. Par conséquent, la téléprésence peut mettre en évidence des facteurs différents de ceux engendrés en environnements virtuels. De plus, la téléprésence peut être comparée à la présence « naturelle » ressentie par les utilisateurs localisés physiquement dans des environnements réels. Ce type de comparaison permet de mettre en évidence l’effet de l’utilisation des technologies sur la présence. En effet, les résultats des expériences menées, comparant la présence spatiale dans des environnements réels, distants et virtuels, ont montré une différence significative entre les environnements concernant le degré de présence spatiale ressenti ainsi que certains de ses facteurs, en particulier le « degré de réalité » accordé à l’environnement. En conclusion, les travaux menés durant cette thèse ont permis d’établir un modèle de la présence spatiale, d’analyser son lien avec différents facteurs et de mettre en place des outils pour mesurer ces derniers. Le modèle peut maintenant être exploité pour caractériser la présence spatiale dans le but d’améliorer les systèmes de RV, que ce soit en terme de performance ou de bien-être utilisateur. En particulier, la situation de pandémie de Covid-19 survenue pendant la durée de ce travail est un exemple frappant qui encourage l’étude et l’utilisation des systèmes de téléprésence
« Spatial presence » is a psycho-cognitive phenomenon that refers to the sensation experienced by people when they feel they are physically located in a given space. This feeling has already been studied extensively. However, like other psycho-cognitive phenomena, no consensus has yet been reached on its definition or how to measure it. Therefore, this thesis attempts to establish a model of spatial presence by highlighting the factors involved in its emergence, and the tools to measure its intensity. Thus, while taking into account the new technological advances in the field of Virtual Reality (VR), the first contribution of this thesis was to describe the main factors of spatial presence gathered into a conceptual model that takes into account the existing theories. Many factors of different importance exist, the best known is the « immersion » factor. Particular attention was paid to this factor through the evaluation of spatial presence in highly immersive environments. Yet, the evaluation of spatial presence can only be done by finding stable ways to quantify it. This task proves to be complicated due to the subjective nature of the phenomenon : the most commonly used tools are questionnaires administered to users after they have completed an experiment in a controlled environment. However, other more objective tools exist, such as the behavioral analysis of users when interacting within an environment. Nevertheless, the reliability of these measurements is still open to debate. Then, the second contribution of this thesis was to find reliable and valid tools for measuring spatial presence, not only by combining the subjective and objective approaches already existing but also by proposing new measures to evaluate this phenomenon and its factors. To this end, a spatial presence questionnaire was developed. In addition, different measures based on human behavior were assessed through the conduction of experiments where users had to perform specific tasks in different immersive environments. Particular attention has also been paid to remote environments that can generate the feeling of « Telepresence », which has been much less studied than presence in virtual environments. The advantage of remote environments is that the actions in such environments have real consequences in our world, in contrast to computer-generated environments in which actions remain confined. The users’ awareness of the impact of their actions in remote environments influences their behavior, and could, therefore, affect the presence experienced. Consequently, spatial telepresence may highlight different factors compared to those generated in virtual environments. Besides, telepresence can be compared to « natural » presence experienced by users when they are physically located in real environments without any technological mediation. Such comparison allows to highlight the effect of the technologies used on the feeling of presence. Indeed, the results of the experiments conducted during this thesis, comparing real, remote, and virtual environments, showed a significant difference between the environments in the degree of spatial presence as well as in some of its factors, such as the « degree of reality » attributed to the environment. In conclusion, the work carried out during this thesis allowed developing a model of spatial presence, analyzing its relationship with several factors, and finding suitable tools to measure them. The model can now be used to characterize spatial presence in order to improve VR systems, either in terms of performance or user well-being in concrete contexts. In particular, the Covid-19 pandemic situation that occurred during this thesis is a very good example that encourages the study and the use of spatial telepresence systems
APA, Harvard, Vancouver, ISO, and other styles
10

Pangracious, Vinod. "High Performance Three-Dimensional Tree-based FPGA Architecture using 3D Technology Process." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066480.

Full text
Abstract:
Les FPGAs (Field Programmable Gate Arrays) sont aujourd'hui des acteurs fondamen-taux dans le domaine des calculateurs qui etait auparavant domin par les microprocesseurs et les ASICs. Le principal enjeu de la conception de FPGA est de trouver le bon compromis entre les performances et la exibilite. Les caractristiques d'un FPGA dependent de trois facteurs : la qualite de l'architecture, la qualite des outils permettant d'implantes l'application sur le FPGA et la technologie utilisee. Le but de cette thse est de proposer une methodologie de conception pour la realisation physique de FPGA en technologie 3 dimensions (3D) ainsi que les outils d'exploration architecturale pour l'empilement en 3D du FPGA arborescent an d'ameliorer lses performances en terme de surface, densite, consommation et vitesse.La premiere partie du manuscrit etudie les dierentes variantes des architectures 2D du FPGA arborescent et l'impact de la migration vers la technologie 3D sur leur topologie. Nous presentons de nombreuses etudes montrant les caracteristiques des reseaux d'interconnexion arborescents, comment ils se comportent en terme de surface et per- formances et comment ils tiennent compte des particularites de l'applicationablee. Mal- heureusement, nous n'avons jamais vu d'avancees en ce qui concerne l'optimisation de telles topologies an d'exploiter leur avantage en terme de surface et consommation, ou encore de resoudre le probleme de longueur des ls qui entrave leurs performances. Tout au long de ce travail, nous avons compris qu'il ne serait pas possible d'optimiser la vitesse sans s'attaquer a la structure m^eme du reseau d'interconnexion arborescent pour l'exploiter a nouveau gr^ace a la technologie 3D. Ce type de technologie peut reduire les problemes de delai du reseau d'interconnexion en orant davantage de exibilite a la conception, au placement et au routage. Un ensemble d'outil d'exploration d'architectures 3D de FPGA a ete developpe pour valider les avancees en terme de performances et surface.La seconde contribution de cette these est le developpement d'une methodologie de conception de circuits FPGA 3D ainsi que l'utilisation des outils de conception classiques (en 2D) pour la realisation physique d'un FPGA arborescent 3D. Tout au long du processus de conception, nous avons ete confrontes aux nombreux problemes que rencontrent les concepteurs 3D en utilisant des outils qui ne sont pas connus pour leurs besoins. De plus, l'utilisation de la technologie 3D risque d'aggraver les performances thermiques. Nous examinons alors precisement l'evolution du comportement thermique lie a l'integration 3D et nous avons montrons comment le contrler en utilisant des techniques de conception tenant compte de la temprature
Today, FPGAs (Field Programmable Gate Arrays) has become important actors in the computational devices domain that was originally dominated by microprocessors and ASICs. FPGA design big challenge is to nd a good trade-o between exibility and performances. Three factors combine to determine the characteristics of an FPGA: quality of its architecture, quality of the CAD tools used to map circuits into the FPGA, and its electrical technology design. This dissertation aims at exploring a development of Three- dimensional (3D) physical design methodology and exploration tools for 3D Tree-based stacked FPGA architecture to improve area, density, power and performances. The first part of the dissertation is to study the existing variants of 2D Tree-based FPGA architecture and the impact of 3D migration on its topology. We have seen numerous studies showing the characteristics of Tree-based interconnect networks, how they scale in terms of area and performance, and empirically how they relate to particular designs. Nevertheless we never had any breakthrough in optimizing these network topologies to exploit the advantages in area and power consumption and how to deal with the larger wire-length issues that impede performance of Tree-based FPGA architecture. Through the course of the work, we understand that, we would not be able to optimize the speed, unless we break the very backbone of the Tree-based interconnect network and resurrect again by using 3D technology. The 3D-ICs can alleviate interconnect delay issues by ofering exibility in system design, placement and routing. A new set of 3D FPGA architecture exploration tools and technologies developed to validate the advance in performance and area.The second contribution of this thesis is the development 3D physical design methodology and tools using existing 2D CAD tools for the implementation of 3D Tree-based FPGA demonstrator. During the course of design process, we addressed many specic issues that 3D designers will encounter dealing with tools that are not specically designed to meet their needs. In contrast, the thermal performance is expected to worsen with the use of 3D integration. We examined precisely how thermal behavior scales in 3D integration and determine how the temperature can be controlled using thermal design techniques
APA, Harvard, Vancouver, ISO, and other styles
11

Mbatchou, Nkwetchoua Guy Merlin. "Vers un modèle d'accompagnement de l'apprentissage dans les Learning Management Systems : une approche basée sur la modélisation multi-scénarios d'un cours et la co-construction du scénario par les apprenants." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS257.pdf.

Full text
Abstract:
Cette thèse contribue à l'accompagnement de l'apprentissage dans des EIAH dans le but d’améliorer le processus d'apprentissage. Dans un contexte où nous ne disposons pas des profils, comment accompagner en adaptant l’apprentissage ? Nous optons pour un apprentissage dirigé par l’apprenant sous les contraintes définies par l'enseignant. Nous avons élaboré un modèle de conception multi-scénarios du cours à destination des enseignants inspiré de la Competence-based Knowledge Space Theory à laquelle 3 extensions (activités à objectifs multiples, contraintes temporelles et seuils de satisfaction) sont ajoutées pour corriger ses faiblesses dans un contexte de formation initiale ou formation tout au long de la vie. Le modèle se base sur les objectifs d'apprentissage et les relations de précédence entre eux pour produire plusieurs scénarios en un temps raisonnable. Un sondage auprès des enseignants montre a priori une acceptabilité du modèle. Pour accompagner l'apprenant, nous lui offrons la possibilité de co-construire son scénario durant l'apprentissage. La co-construction résulte du respecter des contraintes définies par l'enseignant pour éviter des choix illogiques pouvant conduire à l'échec voire l'abandon. Le processus d’apprentissage se base sur le choix et changement des objectifs à atteindre et des activités à faire. Un sondage auprès des apprenants montre a priori une acceptabilité du modèle. Les modèles sont implémentés sous forme de plugin intégrable dans Moodle. Une expérimentation auprès des enseignants leur a permis de déceler des incohérences et des insuffisances dans leurs cours. Nous avons observé une diversité de scénarios construits par les étudiants
This thesis contributes to support learning in Technology Enhanced Learning environment in order to improve the learning process. In a context where we do not have profiles to adapt learning, we have opted for learner-directed learning under the constraints defined by the teacher.We developed to teachers a model to design multi-scenario course. The model inspired on the Competence-based Knowledge Space Theory to which 3 extensions are added to correct its weaknesses in a context of initial or lifelong training. The model is based on learning objectives and prerequisite relationships among them to produce multiple scenarios in a reasonable time. A survey of teachers shows a priori an acceptability of the model. We allow learner to co-construct his scenario during the learning. Co-construction results from the fact that the scenario must respect constraints defined by the teacher to avoid illogical choices that may lead to failure or even dropout. The learning process is based on the choice and change of objectives to achieve and activities to do. A survey of learners shows a priori acceptability of the model. The models are implemented as an integrable plugin in Moodle. An experiment with the teachers allowed them to detect inconsistencies and deficiencies in their courses. We observed a variety of scenarios built by the students
APA, Harvard, Vancouver, ISO, and other styles
12

Dedieu, Sébastien. "Adaptation d'un système de reconstruction de modèles numériques 3D à partir de photographies face aux connaissances de l'utilisateur." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12481.

Full text
Abstract:
Dans le cadre de la synthèse d'images 3D, le modèle numérique d'une scène est traditionnellement conçu à l'aide de logiciels complexes d'utilisation appelés modeleurs, puis est fourni à un logiciel de rendu qui produit l'image. Récemment, des méthodes de reconstruction basées sur l'utilisation de données photographiques ont émergé. La direction que nous suivons dans les travaux présentés ici consiste à intégrer l'utilisateur à ce processus de reconstruction de façon à résoudre les ambigui͏̈tés et les imprécisions. Nous nous sommes particulièrement intéressés aux apports de connaissances que peut fournir l'utilisateur tant sur la géométrie de la scène (coordonnées, contraintes métriques ou angulaires) que sur les propriétés de l'appareil photographique. Nous proposons ainsi un algorithme itératif appelé ajustement de faisceaux s'adaptant aux informations disponibles. Même dans le cas défavorable où l'utilisateur ne fournit aucune donnée sur la scène à reconstruire, le système de reconstruction reste opérationnel (auto-calibrage). Dans le but d'habiller au mieux un modèle géométrique ainsi obtenu, nous proposons une méthode d'extraction de textures paramétrable prenant en compte l'orientation de la surface et sa prépondérance par rapport aux différents clichés photographiques. Enfin, dans l'objectif de reconstruire des objets toujours plus complexes, nous proposons aussi un moyen de représenter et calculer le modèle numérique de certains objets aux formes douces (formes pour lesquelles un nombre important de polygones serait nécessaire pour avoir une approximation raisonnable). Pour valider la robustesse de nos différentes techniques, un logiciel a été développé, Reality. Il permet notamment de reconstruire une scène à partir de points associés sur les photographies (approche constructive) et d'utiliser des objets géométriques déjà connus tels que des boites et des cylindres (approche par reconnaissance) dans le but d'accélérer la constitution du modèle.
APA, Harvard, Vancouver, ISO, and other styles
13

Ahmed, Sameer. "Application d'un langage de programmation de type flot de données à la synthèse haut-niveau de système de vision en temps-réel sur matériel reconfigurable." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00844399.

Full text
Abstract:
Les circuits reconfigurables de type FPGA (Field Programmable Gate Arrays) peuvent désormais surpasser les processeurs généralistes pour certaines applications offrant un fort degré de parallélisme intrinsèque. Ces circuits sont traditionnellement programmés en utilisant des langages de type HDL (Hardware Description Languages), comme Verilog et VHDL. L'usage de ces langages permet d'exploiter au mieux les performances offertes par ces circuits mais requiert des programmeurs une très bonne connaissance des techniques de conception numérique. Ce pré-requis limite fortement l'utilisation des FPGA par la communauté des concepteurs de logiciel en général. Afin de pallier cette limitation, un certain nombre d'outils de plus haut niveau ont été développés, tant dans le monde industriel qu'académique. Parmi les approches proposées, celles fondées sur une transformation plus ou moins automatique de langages de type C ou équivalent, largement utilisés dans le domaine logiciel, ont été les plus explorées. Malheureusement, ces approches ne permettent pas, en général, d'obtenir des performances comparables à celles issues d'une formulation directe avec un langage de type HDL, en raison, essentiellement, de l'incapacité de ces langages à exprimer le parallélisme intrinsèque des applications. Une solution possible à ce problème passe par un changement du modèle de programmation même. Dans le contexte qui est le notre, le modèle flot de données apparaît comme un bon candidat. Cette thèse explore donc l'adoption d'un modèle de programmation flot de données pour la programmation de circuits de type FPGA. Plus précisément, nous évaluons l'adéquation de CAPH, un langage orienté domaine (Domain Specific Language) à la description et à l'implantation sur FPGA d'application opérant à la volée des capteurs (stream processing applications). L'expressivité du langage et l'efficacité du code généré sont évaluées expérimentalement en utilisant un large spectre d'applications, allant du traitement d'images bas niveau (filtrage, convolution) à des applications de complexité réaliste telles que la détection de mouvement, l'étiquetage en composantes connexes ou l'encodage JPEG.
APA, Harvard, Vancouver, ISO, and other styles
14

Mahmoudian, Bigdoli Navid. "Compression for interactive communications of visual contents." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S072.

Full text
Abstract:
Les images et vidéos interactives ont récemment vu croître leur popularité. En effet, avec ce type de contenu, les utilisateurs peuvent naviguer dans la scène et changer librement de point de vue. Les caractéristiques de ces supports posent de nouveaux défis pour la compression. D'une part, les données sont capturées en très haute résolution pour obtenir un réel sentiment d'immersion. D'autre part, seule une petite partie du contenu est visualisée par l'utilisateur lors de sa navigation. Cela induit deux caractéristiques : une compression efficace des données en exploitant les redondances au sein du contenu (pour réduire les coûts de stockage) et une compression avec accès aléatoire pour extraire la partie du flux compressé demandée par l'utilisateur (pour réduire le débit de transmission). Les schémas classiques de compression ne peuvent gérer de manière optimale l’accès aléatoire, car ils utilisent un ordre de traitement des données fixe et prédéfini qui ne peut s'adapter à la navigation de l'utilisateur. Le but de cette thèse est de fournir de nouveaux outils pour les schémas interactifs de compression d’images. Pour cela, comme première contribution, nous proposons un cadre d’évaluation permettant de comparer différents schémas interactifs de compression d'image / vidéo. En outre, des études théoriques antérieures ont montré que l’accès aléatoire peut être obtenu à l’aide de codes incrémentaux présentant le même coût de transmission que les schémas non interactifs au prix d'une faible augmentation du coût de stockage. Notre deuxième contribution consiste à créer un schéma de codage générique pouvant s'appliquer à divers supports interactifs. À l'aide de ce codeur générique, nous proposons ensuite des outils de compression pour deux modalités d'images interactives : les images omnidirectionnelles (360 degrés) et les cartes de texture de modèle 3D. Nous proposons également de nouvelles représentations de ces modalités. Enfin, nous étudions l’effet de la sélection du modèle sur les taux de compression de ces codeurs interactifs
Interactive images and videos have received increasing attention due to the interesting features they provide. With these contents, users can navigate within the content and explore the scene from the viewpoint they desire. The characteristics of these media make their compression very challenging. On the one hand, the data is captured in high resolution (very large) to experience a real sense of immersion. On the other hand, the user requests a small portion of the content during navigation. This requires two characteristics: efficient compression of data by exploiting redundancies within the content (to lower the storage cost), and random access ability to extract part of the compressed stream requested by the user (to lower the transmission rate). Classical compression schemes can not handle random accessibility because they use a fixed pre-defined order of sources to capture redundancies. The purpose of this thesis is to provide new tools for interactive compression schemes of images. For that, as the first contribution, we propose an evaluation framework by which we can compare different image/video interactive compression schemes. Moreover, former theoretical studies show that random accessibility can be achieved using incremental codes with the same transmission cost as non-interactive schemes and with reasonable storage overhead. Our second contribution is to build a generic coding scheme that can deal with various interactive media. Using this generic coder, we then propose compression tools for 360-degree images and 3D model texture maps with random access ability to extract the requested part. We also propose new representations for these modalities. Finally, we study the effect of model selection on the compression rates of these interactive coders
APA, Harvard, Vancouver, ISO, and other styles
15

Sahade, Mohamad. "Un démonstrateur automatique basé sur la méthode de tableaux pour les logiques modales : implémentation et études de stratégies." Toulouse 3, 2006. http://www.theses.fr/2006TOU30055.

Full text
Abstract:
A divers titres, les logiques modales interviennent dans la formalisation de l'interaction entre agents rationnels, y compris la formalisation de plusieurs aspects relatifs à la sécurité des applications Internet (authentification de signature, autorisation). Ces applications nécessitent la mise au point de procédures automatiques, ainsi que la possibilité de tests et expérimentations. Les démonstrateurs automatiques connus ne concernent que des familles de logiques très restreintes. Dans cette thèse nous présentons un démonstrateur automatique générique basé sur la méthode de tableaux nommé : LoTREC. Ce n'est pas seulement un démonstrateur mais un générateur des modèles et de contre modèles pour les formules en entrée. Nous présentons aussi son langage déclaratif basé sur des règles de réécriture de graphes et d'instructions de contrôle pour la définition de stratégies d'application de ces règles. Nous démontrons aussi la complétude, l'adéquation et la terminaison de nos stratégies. Ces résultats couvrent toutes les logiques modales de bases (comme K, KT, S4, S5, KB. . . ) ainsi que les logiques : K+confluence, K4+confluence, la logique temporelle linéaire et la logique dynamique.
APA, Harvard, Vancouver, ISO, and other styles
16

Li, Jing. "Design of mechatronic products based on user-customized configuration : an application for industrial robots." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2211/document.

Full text
Abstract:
Désormais, les clients ne se satisfont plus seulement d’une offre diversifiée de produits mais ils demandent à être partie prenante pendant les processus de développement et de configuration afin d’obtenir des produits le plus personnalisés possible en regard de leurs attentes. La contribution des clients à ces processus conduit à des changements dans l’organisation de la conception, dans le modèle de gestion de l'entreprise, la définition du produit. Tout d'abord, nous présentons le modèle de conception en configuration personnalisée nommé Auser. Nous décrivons tout d’abord les fondamentaux théoriques du modèle de conception en configuration pour personnalisation orientée utilisateur. Dans le deuxième chapitre, la méthode de conception est étudiée, y compris la description formelle des entités décrivant le produit, la construction de l'ontologie ainsi que la modélisation par fonctions, composants et services. Le troisième chapitre présente la configuration de modèle de produit personnalisé par l'utilisateur final du robot industriel. Ces utilisateurs peuvent spécifier les objectifs et contraintes de la mise en œuvre des robots industriels par le biais des paramètres et attributs
In today's market, obtaining a variety of products through configuration design has become increasingly common. However, with the development of the market, customers have not only satisfied the company offering a variety of products, and more demands on participating in the process of configuration design by themselves, so that they can obtain fully personalized products. Customer participation leads to the changes of design process, company's management model, etc. Based on the above problem, this thesis takes industrial robot as an example, and studies the management issues related to the customer involved in the design, in order to address the contradiction between product diversification, personalized requirements and the long design cycle and high manufacturing costs. Firstly, Auser-customized configuration design pattern is presented. The theory source of user-customized configuration design pattern is introduced, and then the related concepts are expounded. The corresponding business mode of user-customized configuration design pattern is given, and the key technologies to realize business mode is studied. System dynamics models were established for user-customized configuration design business mode and for traditional business mode of industrial robots by Anylogic simulation software. Secondly, the component-based theory and method are studied, including the formal description of things, ontology representation, componentization and servitization. On this basis, the componentization description model is established for the product parts. And the model is represented as service-component. Next, the formation process and extension method of service-component are introduced. An example of industrial robot components modeling is analyzed, includingestablishing industrial robot domain ontology by protégé, describing, instantiating and extensing components. Thirdly, the industrial robot user-customized configuration design template is constructed, and users can obtain the industrial robot meeting constraints through parameters setting; The kinematics and dynamics analysis on template is taken by Simscape model, and the dynamic parameters is analyzed, and the finite element analysis on template is taken by ANSYS, including statics analysis and modal analysis. The parameters flow process in template is analyzed. Then taking industrial robot user-customized configuration design using configuration template as an example, the configuration template is analyzed in application. Fourthly, the internal algorithm of user-customized configuration design is researched. Platform-based and user-leading user-customized configuration design process is constructed, and then the internal algorithm to keep the design running smoothly is studied, including the degree of freedom determination, fuzzy demand calculation, and service-component configuration and the configuration program evaluation. A case analysis is also taken for the internal algorithm Finally, on the basis of the previous section, the prototype system design of the open design platform is taken. Based on system requirements analysis and system design, the main pages of the platform are designed, and the key functions are introduced
APA, Harvard, Vancouver, ISO, and other styles
17

Vidal, Jorgiano. "Dynamic and partial reconfigurable embedded systems design with UML." Lorient, 2010. http://www.theses.fr/2010LORIS203.

Full text
Abstract:
Les avancées récentes au niveau des technologies reconfigurables permettent d'implanter des système multiprocesseurs dans un seul FPGA. (Multiprocessor System on Programmable Chip, MPSoPC). Pour pouvoir accélérer le temps de développement de tels systèmes hétérogènes, des nouvelle techniques de projet doivent être développées. De plus, l'exécution dynamique de tâches est un point clef concernant les systèmes modernes, i. E. Systèmes qui ont la capacité de changer leur comportement au cours de l'exécution pour s'adapter à leur environnent. L'UML (Unified Modeling Language) est utilisé pour la modélisation de logiciels depuis sa première version. Récemment, avec les nouveaux concepts rajoutés aux dernières versions (UML2), il est aussi adapté à la modélisation du matériel. Cette thèse est une contribution dans le cadre du projet MOPCOM, qui propose un ensemble des techniques de modélisation avec UML pour construire des systèmes embarqués complexes. Les techniques proposées dans cette thèse considèrent le système à construire comme un modèle unique complet. Nous proposons ensuite un ensemble de transformations qui permettent de générer automatiquement le système. Notre approche permet de modéliser des applications dynamiques sur des plateformes reconfigurables. Nous avons obtenu une réduction de temps de conception de 30% à travers l'utilisation de notre méthodologie
Advances in reconfigurable technologies allow entire multiprocessor systems to be implemented in a single FPGA (Multiprocessor System on Programmable Chip, MP- SoPC). In order to speed up the design time of such heterogeneous systems, new modelling techniques must be developed. Furthermore, dynamic execution is a key point for modern systems, i. E. Systems that can partially change their behavior at run time in order to adjust their execution to the environment. UML (Unified Modeling Language) has been used for software modeling since its first version. Recently, with new modeling concepts added to later versions (UML 2), it has become more and more suitable for hardware modeling. This thesis is a contribution to the MOPCOM project, where we propose a set of modeling techniques in order to build complex embedded systems by using UML. The modeling techniques proposed here consider the system to be built in one complete model. Moreover, we propose a set of transformation that allows the system to be automatically generated. Our approach allows the modelling of dynamic applications onto reconfigurable platforms. Design time reduction up to 30% has been measured while using our methodology
APA, Harvard, Vancouver, ISO, and other styles
18

Ginon, Blandine. "Modèles et outils génériques pour mettre en place des systèmes d’assistance épiphytes." Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0080/document.

Full text
Abstract:
Cette thèse en informatique se situe plus particulièrement dans le domaine de l’ingénierie des connaissances. Elle concerne la mise en place a posteriori de systèmes d’assistance dans des applications existantes, en adoptant une démarche générique. Afin de permettre la mise en place de systèmes d’assistance dans des applications existantes sans avoir à les redévelopper ni à accéder à leur code source, nous avons choisi d’adopter une démarche entièrement épiphyte. Nous avons proposé un processus d’adjonction d’un système d’assistance à une application-cible de manière épiphyte. Il est constitué de deux phases : la spécification et l’exécution de l’assistance. La phase de spécification de l’assistance permet à un expert, le concepteur de l’assistance, de représenter ses connaissances relatives à l’application-cible et à l’assistance qu’il souhaite mettre en place dans celle-ci. La phase d’exécution de l’assistance exploite ces connaissances pour fournir aux utilisateurs finaux l’assistance souhaitée par le concepteur. Pour permettre d’une part la spécification de l’assistance par un concepteur potentiellement non-informaticien, et d’autre part l’exécution automatique de l’assistance spécifiée, nous avons proposé un langage pivot : aLDEAS. Ce langage graphique permet de définir des systèmes d’assistance très variés sous la forme d’un ensemble de règles. Nos propositions théoriques ont été mises en oeuvre de façon opérationnelle à travers le système SEPIA, constitué de différents outils. L’éditeur d’assistance de SEPIA est destiné aux concepteurs d’assistance et met en oeuvre la phase de spécification de l’assistance. Il fournit aux concepteurs d’assistance une interface pour manipuler les éléments du langage aLDEAS, afin de définir un système d’assistance sous la forme d’un ensemble de règles aLDEAS. Les systèmes d’assistance aLDEAS peuvent ensuite être exécutés par le moteur générique d’assistance qui met en oeuvre la phase d’exécution de l’assistance. Il permet de fournir l’assistance ainsi définie aux utilisateurs finaux des applications-cibles. Pour cela, le moteur d’assistance s’appuie sur différents outils épiphytes, pour surveiller et inspecter l’application-cible, ainsi que pour réaliser les actions d’assistance pour l’utilisateur final. Bien que mettant en oeuvre des modèles génériques, le système SEPIA permet de mettre en place de l’assistance finement contextualisée et adaptée aux spécificités, d’une part de l’application-cible, et d’autre part des utilisateurs finaux
This thesis in computer science is situated more particulary in the field of knowledge engineering. It concerns the a posteriori setup of assistance systems in existing applications, while having a generic approach. In order to setup the setup of assistance systems in existing applications without a need to redevelop it or to access its source code, we choose to have a fully epiphytic approach. We proposed a adjunction process of an assistance system to a target-application with a epiphytic manner. It is constituted of two phases: the specification and the execution of the assistance. The assistance specification phase enables an expert, the assistance designer, to represent his knowledge relative to the target-application and to the assistance that he wishes to setup. The assistance execution phase uses this knowledge to provide the target-application end-users with the assistance wished by the designer. To make possible on the one hand the assistance specification by an assistance designer potentially non-computer scientist, and one the second hand the automatic execution of the specified assistance, we propose a pivot language: aLDEAS. This graphical language makes possible the definition of very varied assistance systems, with the shape of a set of rules. Our theoretical propositions have been implemented through the SEPIA system, constituted of different tools. The SEPIA assistance editor is aimed at assistance designers, and it implemented the assistance specification phase. It provided the assistance designers with an interface to handle aLDEAS elements in order to define assistance rules. These rules can then be executed by the SEPIA generic assistance engine, which implements the assistance execution phase. It provides the target-application end-users with the specified assistance. For this purpose, the assistance engine manages different epiphytic tools, in order to monitor and inspect the target-application, and to perform the assistance actions. The models implemented through the SEPIA system are generic, but it make possible the setup of assistance systems specifically suited on the one hand to their target-application, and on the second hand to the end-users
APA, Harvard, Vancouver, ISO, and other styles
19

Daga, Jean-MIchel. "Modélisation des performances temporelles des circuits CMOS submicroniques au niveau porte logique." Montpellier 2, 1997. http://www.theses.fr/1997MON20132.

Full text
Abstract:
L'objectif de ce travail etait de proposer une modelisation analytique des performances temporelles des portes cmos submicroniques ayant une precision comparable a celle d'un simulateur electrique. Pour ce faire, une expression explicite du retard de l'inverseur cmos a d'abord ete obtenue en considerant les effets de rampe d'entree, de couplage capacitif entree sortie, ainsi que le courant de court-circuit. L'extension a des portes plus complexes a ete obtenue en utilisant une technique de reduction des reseaux serie. Pour des charges rc, nous montrons que le retard peut etre obtenu en ajoutant un terme de propagation que nous definissons au retard calcule en ne prenant en compte que la contribution capacitive de la charge. Enfin, les effets de basse tension et de temperature ont ete etudies a partir de mesures effectuees sur des oscillateurs specifiques. Dans le domaine des tres basses tensions les effets de temperature et de tension sont correles. Ceci a ete modelise par un terme de ponderation global. De plus, l'existence d'une valeur de tension d'alimentation pour laquelle les performances en vitesse deviennent independantes de la temperature a ete demontree.
APA, Harvard, Vancouver, ISO, and other styles
20

Chappet, de Vangel Benoît. "Modèles cellulaires de champs neuronaux dynamiques." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0194/document.

Full text
Abstract:
Dans la recherche permanente de solutions pour dépasser les limitations de plus en plus visibles de nos architectures matérielles, le calcul non-conventionnel offre des alternatives variées comme l’ingénierie neuromorphique et le calcul cellulaire. Comme von Neumann qui s’était initialement inspiré du cerveau pour concevoir l’architecture des ordinateurs, l’ingénierie neuromorphique prend la même inspiration en utilisant un substrat analogique plus proche des neurones et des synapses. Le calcul cellulaire s’inspire lui des substrats de calcul naturels (chimique, physiques ou biologiques) qui imposent une certaine localité des calculs de laquelle va émerger une organisation et des calculs. La recherche sur les mécanismes neuronaux permet de comprendre les grands principes de calculs émergents des neurones. Un des grands principes que nous allons utiliser dans cette thèse est la dynamique d’attracteurs d’abord décrite par Amari (champs neuronaux dynamiques, ou DNF pour dynamic neural fields), Amit et Zhang (réseaux de neurones à attracteurs continus). Ces champs de neurones ont des propriétés de calcul variées mais sont particulièrement adaptés aux représentations spatiales et aux fonctions des étages précoces du cortex visuel. Ils ont été utilisés entre autres dans des applications de robotique autonome, dans des tâches de classification et clusterisation. Comme de nombreux modèles de calcul neuronal, ils sont également intéressants du point de vue des architectures matérielles en raison de leur robustesse au bruit et aux fautes. On voit donc l’intérêt que ces modèles de calcul peuvent avoir comme solution permettant de dépasser (ou poursuivre) la loi de Moore. La réduction de la taille des transistors provoque en effet beaucoup de bruit, de même que la relaxation de la contrainte de ~ 0% de fautes lors de la production ou du fonctionnement des circuits permettrait d’énormes économies. Par ailleurs, l’évolution actuelle vers des circuits many-core de plus en plus distribués implique des difficultés liées au mode de calcul encore centralisés de la plupart des modèles algorithmiques parallèles, ainsi qu’au goulot d’étranglement des communications. L’approche cellulaire est une réponse naturelle à ces enjeux. Partant de ces différents constats, l’objectif de cette thèse est de rendre possible les calculs et applications riches des champs neuronaux dynamiques sur des substrats matériels grâce à des modèles neuro-cellulaires assurant une véritable localité, décentralisation et mise à l’échelle des calculs. Cette thèse est donc une proposition argumentée pour dépasser les limites des architectures de type von Neumann en utilisant des principes de calcul neuronal et cellulaire. Nous restons cependant dans le cadre numérique en explorant les performances des architectures proposées sur FPGA. L’utilisation de circuits analogiques (VLSI) serait tous aussi intéressante mais n’est pas étudiée ici. Les principales contributions sont les suivantes : 1) Calcul DNF dans un environnement neuromorphique ; 2) Calcul DNF avec communication purement locale : modèle RSDNF (randomly spiking DNF) ; 3) Calcul DNF avec communication purement locale et asynchrone : modèle CASAS-DNF (cellular array of stochastic asynchronous spiking DNF)
In the constant search for design going beyond the limits of the von Neumann architecture, non conventional computing offers various solutions like neuromorphic engineering and cellular computing. Like von Neumann who roughly reproduced brain structures to design computers architecture, neuromorphic engineering takes its inspiration directly from neurons and synapses using analog substratum. Cellular computing influence comes from natural substratum (chemistry, physic or biology) imposing locality of interactions from which organisation and computation emerge. Research on neural mechanisms was able to demonstrate several emergent properties of the neurons and synapses. One of them is the attractor dynamics described in different frameworks by Amari with the dynamic neural fields (DNF) and Amit and Zhang with the continuous attractor neural networks. These neural fields have various computing properties and are particularly relevant for spatial representations and early stages of visual cortex processing. They were used, for instance, in autonomous robotics, classification and clusterization. Similarly to many neuronal computing models, they are robust to noise and faults and thus are good candidates for noisy hardware computation models which would enable to keep up or surpass the Moore law. Indeed, transistor area reductions is leading to more and more noise and the relaxation of the approx. 0% fault during production and operation of integrated circuits would lead to tremendous savings. Furthermore, progress towards many-cores circuits with more and more cores leads to difficulties due to the centralised computation mode of usual parallel algorithms and their communication bottleneck. Cellular computing is the natural answer to these problems. Based on these different arguments, the goal of this thesis is to enable rich computations and applications of dynamic neural fields on hardware substratum with neuro-cellular models enabling a true locality, decentralization and scalability of the computations. This work is an attempt to go beyond von Neumann architectures by using cellular and neuronal computing principles. However, we will stay in the digital framework by exploring performances of proposed architectures on FPGA. Analog hardware like VLSI would also be very interesting but is not studied here. The main contributions of this work are : 1) Neuromorphic DNF computation ; 2) Local DNF computations with randomly spiking dynamic neural fields (RSDNF model) ; 3) Local and asynchronous DNF computations with cellular arrays of stochastic asynchronous spiking DNFs (CASAS-DNF model)
APA, Harvard, Vancouver, ISO, and other styles
21

Infantes, Guillaume. "Apprentissage de modèles de comportement pour le contrôle d'exécution et la planification robotique." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00129505.

Full text
Abstract:
Les systèmes robotiques autonomes évoluent dans des environnements fortement imprévisibles, et sont sujets à des très grandes imprécisions des capteurs et de leur connaissance en général. De fait, ils sont construits dans l'objectif de robustesse et non pas de fournir des modèles de leur comportement, qui sont nécessaires à la prise de décision de plus haut niveau, type planification ou contrôle d'exécution. Dans les applications actuelles, ils sont souvent très abstraits et simplifiés par rapport à une application réelle. Nous proposons d'explorer la construction automatique de modèles intermédiaires stochastiques pour des systèmes robotiques réels. Dans un premier temps, nous expliquons la construction de modèles de Markov cachés, des données brutes à la définition d'états inobservables, et leur apprentissage. Nous passons ensuite à des modèles d'expressivité plus grande, et expliquons pourquoi les méthodes de calcul exact sont impossibles à appliquer. Nous montrons alors un algorithme original d'apprentissage quantitatif de tels modèles, et passons en revue différentes méthodes d'apprentissage de la causalité sous-jacente. Nous montrons une utilisation de tels modèles pour optimiser un comportement robotique, et pour que le système puisse décider d'apprendre.
APA, Harvard, Vancouver, ISO, and other styles
22

Fahssi, Racim Mehdi. "Identification systématique et représentation des erreurs humaines dans les modèles de tâches." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30304/document.

Full text
Abstract:
Dans les approches centrées utilisateur, les techniques, méthodes, et processus de développement utilisés visent à connaître et comprendre les utilisateurs (analyser leurs besoins, évaluer leurs manières d'utiliser les systèmes) dans le but de concevoir et développer des systèmes utilisables, c'est-à-dire, en adéquation avec leurs comportements, leurs compétences et leurs besoins. Parmi les techniques employées pour garantir l'utilisabilité, la modélisation des tâches permet de décrire les objectifs et acticités des utilisateurs. Grâce aux modèles produits, les spécialistes des facteurs humains peuvent analyser et évaluer l'efficacité des applications interactives. Cette approche d'analyse et de modélisation de tâches a toujours mis l'accent sur la représentation explicite du comportement standard de l'utilisateur. Ceci s'explique par le fait que les erreurs humaines ne font pas partie des objectifs des utilisateurs et qu'ils sont donc exclus de la description des tâches. Cette vision sans erreurs, suivie largement par la communauté en Interaction Homme-Machine, est très différente de celle de la communauté en Facteur Humain qui, depuis ses débuts, s'intéresse à comprendre les causes des erreurs humaines et leur impact sur la performance, mais aussi sur des aspects majeurs comme la sureté de fonctionnement et la fiabilité des utilisateurs et de leur travail. L'objectif de cette thèse est de démontrer qu'il est possible de décrire de façon systématique, dans des modèles de tâches, les erreurs pouvant survenir lors de l'accomplissement de tâches utilisateur. Pour cette démonstration, nous proposons une approche à base de modèles de tâches associée à un processus de description des erreurs humaines et supportée par un ensemble d'outils. Cette thèse présente les résultats de l'application de l'approche proposée à une étude de cas industrielle dans le domaine d'application de l'aéronautique
In user-centered approaches, the techniques, methods, and development processes used aim to know and understand the users (analyze their needs, evaluate their ways of using the systems) in order to design and develop usable systems that is in line with their behavior, skills and needs. Among the techniques used to guarantee usability, task modeling makes it possible to describe the objectives and activities of the users. With task models, human factors specialists can analyze and evaluate the effectiveness of interactive applications. This approach of task analysis and modeling has always focused on the explicit representation of the standard behavior of the user. This is because human errors are not part of the users' objectives and are therefore excluded from the job description. This vision of error-free activities, widely followed by the human-machine interaction community, is very different from the Human Factor community vison on user tasks. Since its inception, Human Factor community has been interested in understanding the causes of human error and its impact on performance, but also on major aspects like the reliability of the operation and the reliability of the users and their work. The objective of this thesis is to demonstrate that it is possible to systematically describe, in task models, user errors that may occur during the performance of user tasks. For this demonstration, we propose an approach based on task models associated with a human error description process and supported by a set of tools. This thesis presents the results of the application of the proposed approach to an industrial case study in the application domain of aeronautics
APA, Harvard, Vancouver, ISO, and other styles
23

Leroux-Beaudout, Renan. "Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30089.

Full text
Abstract:
Ce manuscrit présente une méthodologie pour la conception de systèmes de simulation de modèles en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles. Le but est de permettre à l'architecte système d'explorer des solutions alternatives et de vérifier et/ou valider l'architecture du système en cours de conception, en regard des exigences et besoins des parties prenantes. Cette méthodologie se décline suivant deux axes complémentaires : la partie méthode et les moyens d'exécution, sans lesquels il ne peut y avoir de simulation. Cette nouvelle méthode se fonde sur le principe suivant : partir des exigences utilisateur pour créer les modèles d'architecture système, puis en dériver l'architecture de simulation, développer les modèles exécutables et exécuter la simulation en relation avec les objectifs de vérification et/ou validation. En agissant ainsi, les écarts d'interprétations potentiels entre le modèle d'architecture système et les modèles de simulation sont supprimés ou à tout le moins réduits, par rapport à une approche traditionnelle. Cette nouvelle méthode est de type matriciel. Les colonnes représentent les acteurs, tandis que les lignes correspondent aux différentes étapes de la méthode MBSE employée par l'architecte système pour le produit, y compris les étapes de raffinements. Les acteurs sont l'architecte système pour le produit (SyA), un premier nouvel acteur introduit par cette méthode : l'architecte système pour la simulation (SiA), les développeurs des modèles exécutables de simulation (SMD). Un second nouvel acteur est en charge de l'exécution de la simulation (SEM) au sein de chacune des entreprises, en charge de l'analyse et de la production des résultats exploitables par l'architecte système pour le produit. Avec cette méthode matricielle, le SyA peut demander des simulations, soit en profondeur pour préciser un point particulier de son modèle, soit en extension pour vérifier la bonne concordance des fonctions entre elles, tout en réutilisant des fonctions déjà définies durant les étapes amont ou aval de ses décompositions précédentes. Au global, gains de temps, de coûts, et de confiance. Le deuxième axe de cette méthodologie concerne la réalisation d'une plateforme de cosimulation en entreprise étendue (EE), qui est un projet en soi. Le MBSE a permis de définir une architecture fonctionnelle et physique de cette plateforme de cosimulation qui peut être amendée en fonction des besoins exprimés par l'architecte de la simulation. La proposition introduit un troisième nouvel acteur : le Infrastructure Project Manager (IPM) qui est en charge de la coordination pour la réalisation de la plateforme de cosimulation, au sein de son entreprise. Pour une EE de type donneur d'ordres à soustraitants, introduction de deux nouveaux acteurs : le superviseur d'IPM et le responsable de l'exécution des simulations (SEM), dont leurs rôles respectifs sont de faire le lien avec leurs pendants chez les partenaires
This manuscript presents a methodology for the design of "early" simulations in extended enterprise, based on model-driven system engineering. The goal is to allow the system architect to explore alternative solutions, and to verify and/or validate the system architecture being designed, in relation to the user requirements. This methodology is divided into two complementary axes : the method part (new) and the means of execution, without which there can be no simulation. This new method is based on the following principle : starting from the user requirements to create the system architecture model, then derive the simulation architecture, develop the executable models and run the simulation in relation to objectives of verification and/or validation. By doing this, potential differences in interpretations between the system architecture model and simulation models are removed or at least reduced compared to a traditional approach. This method is of matrix type. The columns represent the actors, while the lines correspond to the different steps of the MBSE method used by the system architect for the product, including the refinement steps. The actors are the system architect for the product (SyA), a first new actor introduced by this method : the system architect for the simulation (SiA), the developers of the simulation executable models (SMD), and the second new actor in charge of the execution of the simulation (SEM). The analysis of its qualities and the production of results exploitable by the system architect for the product. As the method relies on a matrix structure, the SyA can request simulations, either in depth to specify a particular point of its model, or more in extension to check the good agreement of the functions between them. With this new matrix approach, the system architect for the product can reuse functions already defined during the upstream or downstream stages of its previous decompositions. Overall, saving time, costs, and confidence. The second axis of this methodology is the realization of an extended enterprise cosimulation (EE) platform, which is a project in itself. Based on a proposal of requirements specifications, the MBSE has defined a functional and physical architecture. The architecture of this platform can be modified according to the simulation needs expressed by the architect of the simulation. This is one of his prerogatives. The proposal introduces a third new player : the Infrastructure Project Manager (IPM) which is in charge of coordinating for the realization of the cosimulation platform, within his company. For an EE of federated type, that is to say from contractor to subcontractor, introduction of two new actors : - the supervisor of IPM, whose rôle is to link IPMs to solve the administrative and interconnection problems, - the person responsible in charge of the execution simulations. He coordinates, with the SEM of each partner, the implementation of simulations, ensures launches, and returns the results to all partners
APA, Harvard, Vancouver, ISO, and other styles
24

Duruisseau, Mickaël. "Améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I042/document.

Full text
Abstract:
Les développeurs occupent une place prépondérante dans le développement logiciel. Dans ce cadre, ils doivent réaliser une succession de tâches élémentaires (analyse, codage, liaison avec le code existant...), mais pour effectuer ces tâches, un développeur doit régulièrement changer de contexte de travail (recherche d’information, lecture de code…) et analyser du code qui n’est pas le sien. Ces actions nécessitent un temps d’adaptation élevé et réduisent l’efficacité du développeur. La modélisation logicielle est une solution à ce type de problème. Elle propose une vue abstraite d’un logiciel, des liens entre ses entités ainsi que des algorithmes utilisés. Cependant, l’Ingénierie Dirigée par les Modèles (IDM) est encore trop peu utilisée en entreprise. Dans cette thèse, nous proposons un outil pour améliorer la compréhension d’un programme à l’aide de diagrammes dynamiques et interactifs. Cet outil se nomme VisUML et est centré sur l’activité principale de codage du développeur. VisUML fournit des vues (sur des pages web ou sur des outils de modélisation) synchronisées avec le code. Les diagrammes UML générés sont interactifs et permettent une navigation rapide avec et dans le code. Cette navigation réduit les pertes de temps et de contextes dues aux changements d’activités en fournissant à tout moment une vue abstraite sous forme de diagramme des éléments actuellement ouverts dans l’outil de codage du développeur. Au final, VisUML a été évalué par vingt développeurs dans le cadre d’une expérimentation qualitative de l’outil afin d’estimer l’utilité d’un tel outil
Developers dominate in software development. In this context, they must perform a succession of elementary tasks (analysis, coding, linking with existing code ...), but in order to perform these tasks, a developer must regularly change his context of work (search information, read code ...) and analyze code that is not his. These actions require a high adaptation time and reduce the efficiency of the developer. Software modeling is a solution to this type of problem. It offers an abstract view of a software, links between its entities as well as algorithms used. However, Model-Driven Engineering (MDE) is still underutilized in business. In this thesis, we propose a tool to improve the understanding of a program using dynamic and interactive diagrams. This tool is called VisUML and focuses on the main coding activity of the developer. VisUML provides views (on web pages or modeling tools) synchronized with the code.The generated UML diagrams are interactive and allow fast navigation with and in the code. This navigation reduces the loss of time and context due to activity changes by providing at any time an abstract diagram view of the elements currently open in the developer’s coding tool. In the end, VisUML was evaluated by twenty developers as part of a qualitative experimentation of the tool to estimate the usefulness of such a tool
APA, Harvard, Vancouver, ISO, and other styles
25

Zhang, Man. "Modeling of Multiphysics Electromagnetic & Mechanical Coupling and Vibration Controls Applied to Switched Reluctance Machine." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS287/document.

Full text
Abstract:
En raison de ses avantages inhérents, tels que son faible coût, sa fiabilité élevée, sa capacité de fonctionnement à grande vitesse et en environnements difficiles, la machine à réluctance variable (MRV) est une solution attrayante pour l'industrie automobile. Cependant, la traction automobile est une application pour laquelle le comportement acoustique du groupe motopropulseur doit être particulièrement considéré, dans l'optique de ne pas dégrader le confort des passagers. Afin de rendre la MRV compétitive pour cette application automobile, le travail présenté se concentre sur plusieurs méthodes de contrôle cherchant à améliorer le comportement acoustique des MRV en réduisant les vibrations d'origine électromagnétique. Un modèle multi-physique électromagnétique / mécanique semi-analytique est proposé à partir de résultats de simulation numérique obtenus par la méthode des éléments finis. Ce modèle multiphysique est composé de modèles électromagnétiques et structurels, qui sont reliés par la composante radiale de la force électromagnétique. Deux méthodes de contrôle sont ensuite proposées. La première réduit la vibration en faisant varier l'angle de coupure du courant, la fréquence du la variation étant basée sur les propriétés mécaniques de la structure MRV. De plus, une fonction aléatoire uniformément distribuée est introduite pour éviter une composante fréquentielle locale de forte vibration. Une seconde méthode est basée sur le contrôle direct de la force (DFC), qui vise à obtenir une force radiale globale plus douce pour réduire les vibrations. Un adaptateur de courant de référence (RCA) est proposé pour limiter l'ondulation de couple introduite par le DFC, provoquée par l'absence de limitation de courant. Cette seconde méthode de réduction des vibrations appelée DFC & RCA est évaluée par des tests expérimentaux utilisant un prototype de MRV 8/6 afin de montrer sa pertinence. Une solution de partitionnement hardware/software est proposée pour implémenter cette méthode sur une carte FPGA utilisée en combinaison avec un microprocesseur
Due to its inherent advantages Switched Reluctance Machine (SRM) are appealing to the automotive industry. However, automotive traction is a very noise sensitive application where the acoustic behavior of the power train may be the distinction between market success and market failure. To make SRM more competitive in the automotive application, this work will focus on the control strategy to improve the acoustic behavior of SRM by vibration reduction. A semi-analytical electromagnetic/structural multi-physics model is proposed based on the simulation results of numerical computation. This multi-physics model is composed by electromagnetic and structural models, which are connected by the radial force. Two control strategies are proposed. The first strategy to improve the acoustic behavior of SRM by vibration reduction. A semi-analytical electromagnetic/ structural multi-physics model is proposed based on the simulation results of numerical computation. This multi-physics model is composed by electromagnetic and structural models, which are connected by the radial force. Two control strategies are proposed. The first one reduces the vibration by varying the turn-off angle, the frequency of the variable signal is based on the mechanical property of switched reluctance machine. Besides, an uniformly distributed random function is introduced to avoid local high vibration component. Another one is based on the Direct Force Control (DFC), which aims to obtain a smoother total radial force to reduce the vibration. An reference current adapter (RCA) is proposed to limit the torque ripple introduced by the DFC, which is caused by the absence of the current limitation. The second vibration reduction strategy named DFC&RCA is evaluated by experimental tests using an 8/6 SRM prototype. A hardware/software partitioning solution is proposed to implement this method, where FPGA board is used combined with a Microprocessor
APA, Harvard, Vancouver, ISO, and other styles
26

Baklouti, Kammoun Mouna. "Méthode de conception rapide d’architecture massivement parallèle sur puce : de la modélisation à l’expérimentation sur FPGA." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10101/document.

Full text
Abstract:
Les travaux présentés dans cette thèse s’inscrivent dans le cadre des recherches menés sur la conception et implémentation des systèmes sur puce à hautes performances afin d’accélérer et faciliter la conception ainsi que la mise en œuvre des applications de traitement systématique à parallélisme de données massif. Nous définissons dans ce travail un système SIMD massivement parallèle sur puce nommé mppSoC : massively parallel processing System on Chip. Ce système est générique et paramétrique pour s’adapter à l’application. Nous proposons une démarche de conception rapide et modulaire pour mppSoC. Cette conception se base sur un assemblage de composants ou IPs. À cette fin, une bibliothèque mppSoCLib est mise en place. Le concepteur pourra directement choisir les composants nécessaires et définir les paramètres du système afin de construire une configuration SIMD répondant à ses besoins. Une chaîne de génération automatisée a été développée. Cette chaîne permet la génération automatique du code VHDL d’une configuration mppSoC modélisée à haut niveau d’abstraction (UML). Le code VHDL produit est directement simulable et synthétisable sur FPGA. Cette chaîne autorise la définition à un haut niveau d’abstraction d’une configuration adéquate à une application donnée. À partir de la simulation du code généré automatiquement, nous pouvons modifier la configuration dans une démarche d’exploration pour le moment semi-automatique. Nous validons mppSoC dans un contexte applicatif réel de traitement vidéo à base de FPGA. Dans ce même contexte, une comparaison entre mppSoC et d’autres systèmes montre les performances suffisantes et l’efficacité de mppSoC
The main purpose of this PhD is to contribute to the design and implementation of high-performance Systems on Chip to accelerate and facilitate the design and execution of systematic data parallel applications. A massively parallel SIMD processing System-on-Chip named mppSoC is defined. This system is generic, parametric in order to be adapted to the application requirements. We propose a rapid and modular design method based on IP assembling to construct an mppSoC configuration. To this end, an IP library, mppSoCLib, is implemented. The designer can select the necessary components and define the parameters to implement the SIMD configuration satisfying his needs. An automated generation chain was developed. It allows the automatic generation of the corresponding VHDL code of an mppSoC configuration modeled at high abstraction level model (in UML). The generated code is simulable and synthetizable on FPGA. The developed chain allows the definition at a high abstraction level of an mppSoC configuration adequate for a given application. Based on the simulation of the automatically generated code, we can modify the SIMD configuration in a semi-automatic exploration process. We validate mppSoC in a real video application based on FPGA. In this same context, a comparison between mppSoC and other embedded systems shows the sufficient performance and effectiveness of mppSoC
APA, Harvard, Vancouver, ISO, and other styles
27

Delomier, Yann. "Conception et prototypage de décodeurs de codes correcteurs d’erreurs à partir de modèles comportementaux." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0047.

Full text
Abstract:
Les communications numériques sont omniprésentes dans les objets communicants de la vie courante . L'évolution des standards de communications, la diminution des délais de mise sur le marché et l’hétérogénéité des cadres applicatifs complexifient les défis à relever par les concepteurs de circuits numériques. Les technologies mobiles de cinquième génération (5G) sont une illustration des enjeux actuels. Dans ce contexte, le développement de circuits numériques pour l'implantation de décodeurs de codes correcteurs d'erreurs s’avère particulièrement difficile. La synthèse haut niveau (HLS) est une des méthodologies de conception qui permet le prototypage rapide d'architectures numériques. Cette méthodologie est basée sur l’utilisation de descriptions comportementales pour générer des architectures matérielles. Cependant, le développement de modèles comportementaux efficaces est primordial pour la génération d’architectures performantes. Les travaux présentés dans le cadre de cette thèse ont pour thème la définition de modèles comportementaux efficaces pour la génération d'architectures de décodeurs de codes correcteurs d'erreurs pour les codes LDPC et les codes polaires. Ces deux familles de codes correcteurs d’erreurs sont celles qui ont été adoptées dans le standard 5G. Les modèles comportementaux développés se doivent d’allier flexibilité, rapidité de prototypage et efficacité.Une première contribution significative des travaux de thèse est la proposition de deux modèles comportementaux permettant la génération d'architectures matérielles efficaces pour le décodage de codes LDPC. Ces modèles sont génériques et associés à une méthodologie flexible. Ils favorisent l’exploration de l'espace des solutions architecturales. Ainsi une multitude de compromis entre le débit, la latence et la complexité matérielle est obtenue. En outre, cette contribution constitue une avancée significative vis-à-vis de l'état de l'art concernant la génération automatique d'architectures de décodeurs LDPC. Enfin les performances atteintes par les architectures synthétisées sont similaires à celles d’architectures conçues manuellement à l’aide d’un flot de conception traditionnel. Une deuxième contribution des travaux de thèse est la proposition d’un premier modèle comportemental favorisant la génération d'architectures matérielles de décodeurs de codes polaires à l’aide d’un flot de synthèse de haut niveau. Ce modèle générique permet lui aussi une exploration efficace de l'espace des solutions architecturales. Il est à noter que les performances des décodeurs polaires synthétisés sont similaires à celles des architectures de décodage rapportés dans l’état de l’art. Une troisième contribution des travaux de thèse concerne le développement d'un modèle comportemental de décodeur de codes polaires implantant un algorithme "à Liste", à savoir l'algorithme de décodage par annulation successive à liste. Cet algorithme de décodage permet d’obtenir de meilleures performances de décodage au prix d’un surcoût calculatoire important. Ce surcoût se répercute sur la complexité matérielle de l’architecture de décodage. Il est à souligner que le modèle comportemental proposé est le premier modèle pour des décodeurs de codes polaires basés sur un algorithme "à Liste"
Digital communications are ubiquitous in the communicating objects of everyday life. Evolving communication standards, shorter time-to-market, and heterogeneous applications make the design for digital circuit more challenging. Fifth generation (5G) mobile technologies are an illustration of the current and future challenges. In this context, the design of digital architectures for the implementation of error-correcting code decoders will often turn out to be especially difficult. High Level Synthesis (HLS) is one of the computer-aided design (CAO) methodologies that facilitates the fast prototyping of digital architectures. This methodology is based on behavioral descriptions to generate hardware architectures. However, the design of efficient behavioral models is essential for the generation of high-performance architectures. The results presented in this thesis focus on the definition of efficient behavioral models for the generation of error-correcting code decoder architectures dedicated tp LDPC codes and polar codes. These two families of error-correcting codes are the ones adopted in the 5G standard. The proposed behavioural models have to combine flexibility, fast prototyping and efficiency.A first significant contribution of the research thesis is the proposal of two behavioural models that enables the generation of efficient hardware architectures for the decoding of LDPC codes. These models are generic. They are associated with a flexible methodology. They make the space exploration of architectural solutions easier. Thus, a variety of trade-offs between throughput, latency and hardware complexity are obtained. Furthermore, this contribution represents a significant advance in the state of the art regarding the automatic generation of LDPC decoder architectures. Finally, the performances that are achieved by generated architectures are similar to that of handwritten architectures with an usual CAO methodology.A second contribution of this research thesis is the proposal of a first behavioural model dedicated to the generation of hardware architectures of polar code decoders with a high-level synthesis methodology. This generic model also enables an efficient exploration of the architectural solution space. It should be noted that the performance of synthesized polar decoders is similar to that of state-of-the-art polar decoding architectures.A third contribution of the research thesis concerns the definition of a polar decoder behavioural model that is based on a "list" algorithm, known as successive cancellation list decoding algorithm. This decoding algorithm enables to achieve higher decoding performance at the cost of a significant computational overhead. This additional cost can also be observed on the hardware complexity of the resulting decoding architecture. It should be emphasized that the proposed behavioural model is the first model for polar code decoders based on a "list" algorithm
APA, Harvard, Vancouver, ISO, and other styles
28

Goubali, Olga. "Apport des techniques de programmation par démonstration dans une démarche de génération automatique d'applicatifs de contrôle-commande." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0003/document.

Full text
Abstract:
Pour la conception d’un système contrôle-commande, les spécifications fonctionnelles sont à la charge des concepteurs car ce sont eux qui en maîtrisent le fonctionnement. Ces experts n’ont pourtant généralement pas les connaissances en programmation de ceux qui conçoivent le système de pilotage. Ils écrivent alors ces spécifications fonctionnelles en langage naturel, les communiquent ensuite aux concepteurs de l’interface de supervision et du programme de commande qui sont en charge de les implémenter et de les intégrer au système. Les erreurs qui découlent de l’interprétation des spécifications émanent de la différence de culture technique entre les différents intervenants du projet. De plus, suivant la complexité du système, la définition des spécifications fonctionnelles peut être fastidieuse. Nous proposons une approche de conception basée d’une part sur l’analyse de la tâche et sur les techniques du End User Development pour l’obtention de spécifications fonctionnelles validées par les experts métiers. Les techniques de l’ingénierie dirigée par les modèles sont mises en oeuvre pour générer automatiquement l’interface de spécification (qui intègre un Enregistreur, un Généralisateur, un Rejoueur, et un Correcteur), l’interface de supervision du système à piloter et son programme de commande. La démarche proposée a fait l’objet d’une preuve de concept démontrant sa faisabilité technique. Cette preuve de concept a fait l’objet d’évaluations qui ont démontré son intérêt dans le cadre de la conception de système de supervision
For designing complex and sociotechnical systems, business experts are responsible for writing the functional specifications because of their operational expert knowledge. However, these experts do not usually own the programming knowledge of those who design supervision systems. The task of the system design expert is then to define the functional specifications. S/he writes them in natural language, and then provides them to the designers of the supervision interface and the control-command code. The designers’ job is then to implement and integrate the specifications into the system. Errors from the specification interpretation come from the difference of technical knowledge between the various partners involved in the project. Moreover, depending on the complexity of the system, the definition of functional specifications can be tedious.We propose a design approach based on task modelling and End User Development in order to obtain functional specifications validated by the business experts (mechanical engineer for example).Model-driven engineering techniques are implemented to automatically generate the specification interface (that integrates Recorder, Generalizer, Replayer, and Corrector), the system supervision interface to be piloted and its control program.The technical feasibility of the proposed approach was demonstrated through a proof of concept. This proof of concept was evaluated to demonstrate the interest of the approach in the design of supervision systems
APA, Harvard, Vancouver, ISO, and other styles
29

Cherif, Sana. "Approche basée sur les modèles pour la conception des systèmes dynamiquement reconfigurables : de MARTE vers RecoMARTE." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00998248.

Full text
Abstract:
Dans cette thèse, nous proposons une méthodologie de co-conception des systèmes dynamiquement reconfigurables basés sur FPGA. Notre méthodologie s'appuie sur l'Ingénierie Dirigée par les Modèles (IDM) pour la mise en oeuvre de notre flot de conception, dont la spécification des modèles est décrite avec le profil standard UML MARTE (Modeling and Analysis of Real-Time and Embedded Systems). Les travaux présentés dans ce manuscrit visent à garantir la flexibilité, la réutilisabilité et l'automatisation afin de faciliter le travail du concepteur et d'améliorer sa productivité. La première contribution de cette thèse réside dans la modélisation à haut-niveau d'abstraction permettant de cacher un grand nombre de détails d'implémentation. Nous avons donc défini un flot de conception pour la modélisation des FPGAs dynamiquement reconfigurables, basé sur l'IDM afin d'assurer l'automatisation de la génération de code. Suivant ce flot, plusieurs modèles sont créés moyennant principalement les concepts du profil MARTE. Cependant, la modélisation de certains concepts de la reconfiguration dynamique des FPGAs a nécessité des extensions dans MARTE que nous avons identifiées et intégrées dans un nouveau profil qui étend MARTE baptisé RECOMARTE (Reconfigurable MARTE). La seconde contribution est l'automatisation de la chaîne de transformations et la validation expérimentale. Afin d'assurer l'automatisation de notre flot de conception vers la génération du code, une chaîne de transformations a été utilisée. Le modèle final en MARTE résultant du flot de conception est donné comme entrée à cette chaîne. Nous passons ainsi d'un modèle MARTE/RecoMARTE vers une description intermédiaire selon le standard IP-XACT afin de générer finalement des fichiers décrivant le système complet dans l'environnement XPS de Xilinx. Cette automatisation permet d'accélérer la phase de conception et éviter les erreurs dues à la manipulation directe des détails. Enfin, un exemple d'application de traitement d'image a été élaboré afin de démontrer et valider notre méthodologie. Ceci a fait apparaître les avantages de nos contributions en termes de réutilisabilité de la conception et l'automatisation
APA, Harvard, Vancouver, ISO, and other styles
30

Deest, Gaël. "Implementation trade-offs for FGPA accelerators." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S102/document.

Full text
Abstract:
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation
Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case
APA, Harvard, Vancouver, ISO, and other styles
31

Quadri, Imran Rafiq. "MARTE based model driven design methodology for targeting dynamically reconfigurable FPGA based SoCs." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00486483.

Full text
Abstract:
Les travaux présentés dans cette thèse sont effectuées dans le cadre des Systèmes sur puce (SoC, Systemon Chip) et la conception de systèmes embarqués en temps réel, notamment dédiés au domaine de la reconfiguration dynamique, liés à ces systèmes complexes. Dans ce travail, nous présentons un nouveau flot de conception basé sur l'Ingénierie Dirigée par les Modèles (IDM/MDE) et le profilMARTE pour la conception conjointe du SoC, la spécification et la mise en oeuvre de ces systèmes sur puce reconfigurables, afin d'élever les niveaux d'abstraction et de réduire la complexité du système. La première contribution relative à cette thèse est l'identification des parties de systèmes sur puce reconfigurable dynamiquement qui peuvent être modélisées au niveau d'abstraction élevé. Cette thèse adapte une approche dirigée par l'application et cible les modèles d'application de haut niveau pour être traités comme des régions dynamiques des SoCs reconfigurables. Nous proposons aussi des modèles de contrôle générique pour la gestion de ces régions au cours de l'exécution en temps réel. Bien que cette sémantique puisse être introduite à différents niveaux d'abstraction d'un environnent pour la conception conjointe du SoC, nous insistons tout particulièrement sur sa fusion au niveau du déploiement, qui relie la propriété intellectuelle avec les éléments modélisés à haut niveau de conception. En outre, ces concepts ont été intégrés dans le méta-modèleMARTE et le profil correspondant afin de fournir une extension adéquate pour exprimer les caractéristiques de reconfiguration à la modélisation de haut niveau. La seconde contribution est la proposition d'un méta-modèle intermédiaire, qui isole les concepts présents au niveau transfert de registre (RTL-Register Transfer Level). Ce méta-modèle intègre les concepts chargés de l'exécution matérielle des applications modélisées, tout en enrichissant la sémantique de contrôle, provoquant la création d'un accélérateur matériel reconfigurable dynamiquement avec plusieurs implémentations disponibles. Enfin, en utilisant les transformations de modèlesMDE et les principes correspondants, nous sommes en mesure de générer des codeHDL équivalents à différentes implémentations de l'accélérateur reconfigurable ainsi que différents codes source en langage C/C++ liés au contrôleur de reconfiguration, qui est finalement responsable de la commutation entre les différentes mplémentations. Enfin, notre flot de conception a été vérifié avec succès dans une étude de cas liée à un système anti-radar de détection de collision. Une composante clé intégrante de ce système a été modélisée en utilisant les spécifications MARTE étendu et le code généré a été utilisé dans la conception et la mise en oeuvre d'un SoC sur un FPGA reconfigurable dynamiquement.
APA, Harvard, Vancouver, ISO, and other styles
32

Jung, Aera. "JEM-EUSO prototypes for the detection of ultra-high-energy cosmic rays (UHECRs) : from the electronics of the photo-detection module (PDM) to the operation and data analysis of two pathnders." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC108/document.

Full text
Abstract:
L’expérience JEM-EUSO (traduction de Observatoire spatial de l’univers extrême à bord du module de l'expérience japonaise) est conçu pour observer les UHECR en détectant la lumière fluorescente UV émise par la gerbe qui se développe lorsque les UHECR interagissent avec l'atmosphère terrestre. Les gerbes atmosphériques sont constituées de dizaines de milliards de particules secondaires ou plus traversant l'atmosphère quasiment à la vitesse de la lumière, excitant les molécules d'azote qui émettent ensuite de la lumière dans la gamme UV. Alors que cette « technique de fluorescence » est habituellement utilisée au sol, en opérant ainsi à partir de l'espace, JEM-EUSO, pour la première fois, fournira des statistiques élevées sur ces événements. Avec un large champ de vue de ± 30 °, JEM-EUSO pourra observer depuis l’espace un volume d'atmosphère beaucoup plus grand que ce qui est possible du sol, en collectant un nombre sans précédent d'événements UHECR aux plus hautes énergies.Pour les quatre prototypes d’expériences construites par la collaboration, nous avons développé un ensemble commun d'électronique, en particulier le système central d'acquisition de données capable de fonctionner au sol, sur des ballons à haute altitude et dans l'espace.Ces expériences utilisent toutes un détecteur composé d'un module de détection de photo (PDM) identique aux 137 qui seront présents sur la surface focale JEM-EUSO. La lumière UV générée par les gerbes atmosphériques à haute énergie passe le filtre UV et frappe les tubes à photomultiplicateurs multi-anodes (MAPMT). Les photons UV sont alors transformés en électrons, qui sont multipliés par les MAPMT et le courant qu’ils créent est amplifié par des cartes ASIC de circuit intégré (EC-ASIC), qui effectuent également le comptage des photons et l'estimation de charge. Une carte FPGA nommé PDM board s'interface avec ces cartes ASIC, fournissant des paramètres d'alimentation et de configuration à ces cartes ASIC, collecte alors les données et exécute le déclenchement d’acquisition de niveau 1.Dans le cadre de ces travaux, je me suis occupée de la conception, du développement, de l'intégration et du test la carte FPGA PDM board pour les missions EUSO-TA et EUSO-Balloon ainsi que des tests d'algorithme de déclenchement autonomes d’acquisitions et j'ai également analysé les données de vol d’EUSO-Balloon et de la campagne sol EUSO-TA d’octobre 2015.Dans cette thèse, je donnerai un bref aperçu des rayons cosmiques à haute énergie, y compris de leur technique de détection et des principales expériences pour les détecter (chapitre 1), je décrirai JEM-EUSO et ses pathfinders (chapitre 2), je présenterai les détails de la conception et de la fabrication du PDM (chapitre 3) et de la carte FPGA PDM board (chapitre 4), ainsi que des tests d'intégration d’EUSO-TA et d’EUSO-Balloon (chapitre 5). Je ferai un rapport sur la campagne EUSO-Balloon de 2014 (chapitre 6) et sur ses résultats (chapitre 7), y compris une analyse spécifique développée pour rechercher des variations globales de l'émissivité UV au sol et j’appliquerai une analyse similaire aux données collectées sur le site de Telescope Array (Chapitre 8). Enfin, je présenterai la mise en œuvre et le test du déclencheur de premier niveau (L1) dans la carte de contrôle FPGA (chapitre 9). Un bref résumé de la thèse sera donné au chapitre 10
The JEM-EUSO (Extreme Universe Space Observatory on-board the Japanese Experiment Module) international space mission is designed to observe UHECRs by detecting the UV fluorescence light emitted by the so-called Extensive Air Shower (EAS) which develop when UHECRs interact with the Earth’s atmosphere. The showers consist of tens of billions or more secondary particles crossing the atmosphere at nearly the speed of light, which excite nitrogen molecules which then emit light in the UV range. While this so-called “fluorescence technique'” is routinely used from the ground, by operating from space, JEM-EUSO will, for the first time, provide high-statistics on these events. Operating from space, with a large Field-of-View of ±30 °, allows JEM-EUSO to observe a much larger volume of atmosphere, than possible from the ground, collecting an unprecedented number of UHECR events at the highest energies.For the four pathfinder experiments built within the collaboration, we have been developing a common set of electronics, in particular the central data acquisition system, capable of operating from the ground, high altitude balloons, and space.These pathfinder experiments all use a detector consisting of one Photo-detection Modules (PDMs) identical to the 137 that will be present on the JEM-EUSO focal surface. UV light generated by high-energy particle air showers passes the UV filter and impacts the Multi-anode Photomultiplier Tubes (MAPMT). Here UV photons are converted into electrons, which are multiplied by the MAPMTs and fed into Elementary Cell Application-Specific Integrated Circuit (EC-ASIC) boards, which perform the photon counting and charge estimation. The PDM control board interfaces with these ASIC boards, providing power and configuration parameters, collecting data and performing the level 1 trigger. I was in charge of designing, developing, integrating, and testing the PDM control board for the EUSO-TA and EUSO-Balloon missions as well as the autonomous trigger algorithm testing and I also performed some analysis of the EUSO-Balloon flight data and data from the EUSO-TA October 2015 run.In this thesis, I will give a short overview of high-energy cosmic rays, including their detection technique and the leading experiments (Chapter 1), describe JEM-EUSO and its pathfinders including a description of each instrument (Chapter 2), present the details of the design and the fabrication of the PDM (Chapter 3) and PDM control board (Chapter 4), as well as the EUSO-TA and EUSO-Balloon integration tests (Chapter 5). I will report on the EUSO-Balloon campaign (Chapter 6) and results (Chapter 7), including a specific analysis developed to search for global variations of the ground UV emissivity, and apply a similar analysis to data collected at the site of Telescope Array (Chapter 8). Finally, I will present the implementation and testing of the first-level trigger (L1) within the FPGA of the PDM control board (Chapter 9). A short summary of the thesis will be given in Chapter 10
APA, Harvard, Vancouver, ISO, and other styles
33

Ochoa, Ruiz Gilberto. "A high-level methodology for automatically generating dynamically reconfigurable systems using IP-XACT and the UML MARTE profile." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00932118.

Full text
Abstract:
The main contribution of this thesis consists on the proposition and development a Model-driven Engineering (MDE) framework, in tandem with a component-based approach, for facilitating the design and implementation of Dynamic Partially Reconfigurable (DPR) Systems-on-Chip. The proposed methodology has been constructed around the Metadata-based Composition Framework paradigm, and based on common standards such as UML MARTE and the IEEE IP-XACT standard, an XML representation used for storing metadata about the IPs to be reused and of the platforms to be obtained at high-levels of abstraction. In fact, a componentizing process enables us to reuse the IP blocks, in UML MARTE, by wrapping them with PLB (static IPs) and proprietary (DPR blocks) interfaces. This is attained by reflecting the associated IP metadata to IP-XACT descriptions, and then to UML MARTE templates (IP reuse). Subsequently, these IP templates are used for composing a DPR model that can be exploited to create a Xilinx Platform Studio FPGA-design, through model transformations. The IP reflection and system generation chains were developed using Sodius MDWorkbench, an MDE tool conceived for the creation and manipulation of models and their meta-models, as well as the definition and execution of the associated transformation rules.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography