To see the other types of publications on this topic, follow the link: Cartes perforées, Systèmes de.

Dissertations / Theses on the topic 'Cartes perforées, Systèmes de'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Cartes perforées, Systèmes de.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Neumann, Cédric. "De la mécanographie à l’informatique : les relations entre catégorisation des techniques, groupes professionnels et transformations des savoirs managériaux." Paris 10, 2013. http://www.theses.fr/2013PA100149.

Full text
Abstract:
L’histoire du traitement de l’information s’est attachée à réinscrire l’apparition et l’utilisation des ordinateurs dans un mouvement plus large de mécanisation des tâches administratives et plus généralement de l’écrit. Cette perspective féconde a permis de relativiser les analyses portant sur la « société de l’information » dans lesquelles l’utilisation des ordinateurs est un phénomène sans antécédents qui entraîne des transformations brutales et inédites des sociétés grâce à la production accrue d’informations et la rapidité de leur circulation. Cependant la continuité entre les machines mécanographiques et les ordinateurs, qui se vérifie tant au niveau des constructeurs qu’à celui des clients et de leurs utilisations, n’explique pas pourquoi durant les années 1960 les ordinateurs n’ont plus été conçus comme un développement de la mécanographie mais comme un phénomène radicalement différent de celle-ci. C’est précisément la construction de cette différence qui constitue l’objet principal de notre thèse. Pour cela notre travail porte sur une période relativement courte, comparée aux précédentes analyses, allant de 1945 à 1975 – qui se caractérise dans un premier temps par l’extension de l’utilisation des machines à cartes perforées puis leur remplacement progressif par des ordinateurs – et sur un espace délimité, la France, dans lequel l’invention d’un nouveau terme, l’informatique, marque la différence symbolique entre la mécanographie et les ordinateurs. Pour comprendre comment l’informatique a pu apparaître comme une « révolution » par rapport à la mécanographie, il ne faut pas limiter l’étude aux usages des différents matériels mais restituer les relations d’équivalence existant entre les machines, le personnel les utilisant, les différents domaines d’activité des entreprises et les savoirs que celles-ci mobilisent. C’est la transformation de ces relations qui permet d’expliquer que des utilisations comparables des différents matériels se soient accompagnées de la construction de catégories hétérogènes et antinomiques que sont la mécanographie et l’informatique. Nous montrons ainsi que la notion de mécanographie, utilisée pour désigner l’ensemble des matériels participant à la rationalisation des opérations administratives, se situe dans la stricte continuité des principes de l’OST. La mécanographie trouve sa principale justification dans l’augmentation de la productivité du travail administratif qui repose sur l’étroite spécialisation des mécanographes et l’utilisation d’un personnel féminin pour les tâches les plus dévalorisées. Le personnel mécanographe ne reçoit qu’une brève formation assurée le plus souvent par les constructeurs (ch. 1). A l’inverse, l’utilisation des ordinateurs ne renvoie plus uniquement à la productivité mais à l’amélioration de la qualité de la gestion. C’est l’association étroite des ordinateurs aux tâches de conception et de direction qui donne naissance à la notion d’informatique dans le champ économique et aux croyances constituant la « révolution informatique » (ch. 2). Dans ces conditions, les individus travaillant sur les ordinateurs ne sont plus considérés comme un personnel d’exécution mais de conception ce qui conduit à la constitution d’un marché du travail des informaticiens autonome de celui des machines. L’assimilation des informaticiens à des cadres et l’augmentation du capital culturel requis contribue à exclure la majorité des anciens mécanographes des emplois liés aux ordinateurs et approfondir la différence entre informatique et mécanographie (ch. 3). Les propriétés distinctives des informaticiens par rapport aux mécanographes sont renforcées par la création de formations supérieures en informatique de gestion qui doivent alimenter le marché du travail des spécialistes. Néanmoins, le contenu de ces formations est un enjeu de lutte entre les universitaires les assurant et les employeurs (ch. 4). Enfin, à la différence de la mécanographie, l’informatique est constituée comme un outil spécifique à l’ensemble des cadres. D’une part, parce que les grandes écoles introduisent l’enseignement de l’informatique dans leurs cursus, transformant celle-ci en un savoir-faire incontournable pour leurs élèves (ch. 5), d’autre part, parce que la transformation des cadres en « utilisateurs » par l’intermédiaire de la formation permanente est conçue comme le moyen de parvenir à l’utilisation optimale de l’informatique (ch. 6)
The history of information processing considers that the apparition and use of computers fall within a broader movement of mechanization of administrative tasks and more generally of writing. This vivid prospect allows relativizing analyses dealing with the « society of information » in which the use of computers is an unprecedented phenomenon, leading to brutal and first ever society transformations, thanks to a growing production of information circulating fast. The continuity between the « mécanographiques » machines and computers can be seen at the level of the manufacturers as well as at the level of the clients and their uses. It does not explain however why computers have no longer been seen as a development of « mécanographie » but as a radically different phenomenon in the 1960s. This thesis will precisely deal with the elaboration of this difference. For that purpose, our work will analyze a relatively short period compared to previous analysis: 1945 to 1975. This period is first characterized by the extension of the use of punched cards machines, then by their progressive replacement by computers. It happened in a delimited area, France, in which the invention of a new term, « informatique » highlights the symbolic difference between « mécanographie » and computers. To understand why « informatique » could appear as a « revolution » compared to « mécanographie », one should not restrict the analysis to the uses of the different equipment but restitutes the relations of equivalence existing between the machines, the staff using it, the different activity fields of companies, and the knowledge the latter require. This transformation of these relations explains why comparable uses of different equipment have actually come along with the elaboration of so heterogeneous and antinomic categories as « mécanographie » and « informatique ». We show that the notion of « mécanographie », used to describe the range of equipment rationalizing the administrative tasks is aligned with the principles of scientific management. « La mécanographie » is primarily justified by the increase of the productivity of administrative work. The latter relies on a narrow specialization of «mécanographes » and the use of a female staff for the most depreciated tasks. The « mécanographe » staff is briefly trained, most of the time by the manufacturers themselves (ch. 1). On the contrary, the use of computers is no longer only linked to productivity but to the improvement of management quality. The close association of computers with conception and direction tasks give birth to the notion of « informatique » in the economic field and to beliefs inherent to the «révolution informatique » (ch. 2). In this context, individuals working on computers are no longer considered like a staff executing but conceiving, which leads to the creation of a labor market of computer engineers autonomous from the one of the machines. The assimilation of computer engineers to executives and the rise of the cultural capital required contributed to exclude the majority of former « mécanographes » from computer-related jobs and to increase the difference between « informatique » and « mécanographie » (ch. 3). The distinct properties of computer engineers compared to « mécanographes » are reinforced by the creation of university-level training in computer engineering to supply the labor market of specialists. Nonetheless, the content of these trainings shows the struggling between the university professors teaching those and the employers (ch. 4). Finally, as opposed to « mécanographie », « informatique » is considered as a specific tool for the majority of the executives. This is due on one hand to the « grandes écoles » introducing the teaching of computer engineering in their curriculum, transforming the latter in a mandatory know-how for the students (ch. 5); and on the other hand to the transformation of executives into « users » via the permanent training, conceived as a means to get optimal use of «’informatique » (ch. 6)
APA, Harvard, Vancouver, ISO, and other styles
2

Richomme, Paulette. "Une entreprise à l’épreuve de la guerre et de l’Occupation : la compagnie des machines Bull, 1939-1945." Paris 10, 2007. http://www.theses.fr/2007PA100208.

Full text
Abstract:
Cette thèse est consacrée à l’étude de la vie de la Cie des Machines Bull, constructeur de machines à cartes perforées, pendant la 2ème Guerre Mondiale. Dans les années trente, cette industrie ne comportait que trois constructeurs, dont deux étaient américains, l’I. B. M. Corp. Et la Sté POWERS, la seule française étant la Cie Bull, la plus modeste aussi, créée en 1931. Après l’occupation de la France par les Allemands, la Cie Bull fut convoitée à la fois par les services mécanographiques de la Wehrmacht (O. K. W. ) et par une grosse entreprise allemande, la Sté Wenderer Werke , de Chemnitz. Pour ne pas tomber entre les mains de l’O. K. W. , la Cie Bull choisit de négocier avec la Wanderer-Werke avec laquelle elle conclut un contrat qui n’était pas désavantageux pour elle et dont, de report en report, la signature n(intervint que le 30 décembre 1942, Jacques Callies – P. D. G. De Bull – s’y trouvant contraint pour éviter les réquisitions de son personnel pour les S. T. O. Pendant tout ce temps de reports, la Cie Bull put travailler pour sa clientèle française et en particulier pour l’E. M. A. (Service National des Statistiques) et le Contrôleur Général Carmille qui préparaient une mobilisation clandestine pour soutenir les troupes alliées lors de leur débarquement. Après l’Armistice, Jacques Callies dut d’abord se justifier devant une Commission d’Epuration Interne à l’entreprise qui lui décerna une attestation toute à son honneur. Puis, elle fut citée devant la Commission de Confiscation des Profits Illicites. Bien que la Compagnie n’eut livré à la Wanderer-Werke que très peu de matériels elle dut reverser au trésor une partie des bénéfices encaissés. Mais, grâce à l’habilité et à la ténacité de Jacques Callies et de son équipe de direction, la Cie Bull sortit de la guerre nettement plus puissante qu’elle n’y était entrées, ayant créé une industrie française des machines à cartes perforées, affranchie de tout dépendance étrangère.
APA, Harvard, Vancouver, ISO, and other styles
3

Lecomte, Sylvain. "COST-STIC Cartes Orientées Services Transactionnels et Systèmes Transactionnels Intégrant des Cartes." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 1998. http://tel.archives-ouvertes.fr/tel-00457654.

Full text
Abstract:
Le domaine d'application des cartes à microprocesseur est de plus en plus vaste (le secteur monétaire, la téléphonie, la santé). Dorénavant, la carte s'intègre dans des systèmes distribués (paiement sur Internet, téléphonie mobile). Ainsi, malgré l'apparition de nouvelles cartes utilisant des langages de programmation répandus (comme Java pour la JavaCard), le développement des applications carte, dans un milieu distribué et très sujet aux pannes, se révèle de plus en plus complexe. Le modèle transactionnel, de par ses propriétés (Atomicité, Cohérence, Isolation et Durabilité) représente une bonne solution au traitement de ces problèmes. L'implantation de ce modèle dans les cartes à microprocesseur impose l'adaptation de deux mécanismes (la reprise sur panne, et le contrôle de concurrence sur les données) bien connus des systèmes transactionnels classiques. Pour cela, il a notamment fallu tenir compte de la faible taille mémoire disponible et du processeur peu puissant. L'utilisation de cartes gérant les mécanismes cités précédemment (la COST) dans des systèmes distribués s'effectue grâce à une architecture (appelée STIC), utilisant un service de validation distribuée (OTS pour CORBA). Un composant d'adaptation prend en charge les contraintes de la carte (notamment en terme de protocole de communication), de manière à ne pas modifier l'architecture des systèmes existants. Une maquette, basée sur la JavaCard et le service OTS de CORBA, a été réalisée dans le but de simuler une application de paiement sur Internet.
APA, Harvard, Vancouver, ISO, and other styles
4

Chen, Linxiao. "Cartes planaires aléatoires couplées aux systèmes de spins." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS096/document.

Full text
Abstract:
Cette thèse vise à améliorer notre compréhension des cartes planaires aléatoires décorées par les modèles de physique statistique. On examine trois modèles particuliers à l'aide des outils provenant de l'analyse, de la combinatoire et des probabilités. Dans une perspective géométrique, on se concentre sur les propriétés des interfaces et les limites locales des cartes aléatoires décorées. Le premier modèle consiste en une famille de quadrangulations aléatoires du disque décorées par un modèle de boucles O(n). Après avoir complété la preuve de son diagramme de phase initiée par [BBG12c] (chap. II), on étudie les longueurs et la structure d'imbrication des boucles dans la phase critique non-générique (chap. III). On montre que ces statistiques, décrites par un arbre étiqueté, convergent en loi vers une cascade multiplicative explicite lorsque le périmètre du disque tend vers l'infini. Le deuxième modèle (chap. IV) consiste en une carte planaire aléatoire décorée par la percolation de Fortuin-Kasteleyn. On complète la preuve de la convergence du modèle esquissée dans [She16b] et établit un certain nombre de propriétés de la limite. Le troisième modèle (chap. V) est celui des triangulations aléatoires du disque décorées par le modèle d'Ising. Il est étroitement lié au modèle des quadrangulations décorées par un modèle O(n) quand n=1. On calcule explicitement la fonction de partition du modèle muni des conditions au bord de Dobrushin au point critique, sous une forme exploitable pour les asymptotiques. À l'aide de ces asymptotiques, on étudie le processus d'épluchage le long de l'interface d'Ising dans la limite où le périmètre du disque tend vers l'infini. Mots clés. Carte planaire aléatoire, modèle de boucles O(n), percolation de Fortuin-Kasteleyn, modèle d'Ising, limite locale, géométrie d'interfaces
The aim of this thesis is to improve our understanding of random planar maps decorated by statistical physics models. We examine three particular models using tools coming from analysis, combinatorics and probability. From a geometric perspective, we focus on the interface properties and the local limits of the decorated random maps. The first model defines a family of random quadrangulations of the disk decorated by an O(n)-loop model. After completing the proof of its phase diagram initiated in [BBG12c] (Chap. II), we look into the lengths and the nesting structure of the loops in the non-generic critical phase (Chap. III). We show that these statistics, described as a labeled tree, converge in distribution to an explicit multiplicative cascade when the perimeter of the disk tends to infinity. The second model (Chap. IV) consists of random planar maps decorated by the Fortuin-Kasteleyn percolation. We complete the proof of its local convergence sketched in [She16b] and establish a number of properties of the limit. The third model (Chap. V) is that of random triangulations of the disk decorated by the Ising model. It is closely related to the O(n)-decorated quadrangulation when n=1. We compute explicitly the partition function of the model with Dobrushin boundary conditions at its critical point, in a form ameneable to asymptotics. Using these asymptotics, we study the peeling process along the Ising interface in the limit where the perimeter of the disk tends to infinity.Key words. Random planar map, O(n) loop model, Fortuin-Kasteleyn percolation, Ising model, local limit, interface geometry
APA, Harvard, Vancouver, ISO, and other styles
5

Tayong, Boumda Rostand. "Propriétés acoustiques de systèmes incorporant des plaques micro-perforées et des matériaux absorbants sous forts niveaux d'excitation." Thesis, Dijon, 2010. http://www.theses.fr/2010DIJOS066/document.

Full text
Abstract:
Ce travail de thèse a pour objectif l'étude des propriétés acoustiques de systèmes incorporant des plaques micro-perforées (MPP) et des matériaux absorbants sous forts niveaux d'excitation.Le premier chapitre traite des systèmes composés d'une MPP couplée à une cavité d'air et une paroi rigide. Un modèle analytique intégrant deux paramètres adimensionnels et un nombre de Mach optimal est présenté. La particularité de ce modèle est de décrire la variation du maximum du coefficient d'absorption (coefficient d'absorption à la résonance) avec l'augmentation du niveau d'excitation. Une formule proposée permet de prédire les variations du pic d'absorption avec le nombre de Mach acoustique.Les effets d'interaction entre les perforations sont étudiés sous forts niveaux d'excitation dans le deuxième chapitre. Un modèle basé sur l'approche fluide équivalent est proposé. Dans ce modèle, la tortuosité est corrigée pour prendre en compte les distorsions d'écoulement dues aux effets d'interaction entre perforations et aux effets de turbulence. Cette correction de tortuosité qui n'intègre permet de prédire le comportement de la réactance du système.Les multi-couches composés de MPP et de matériaux poreux sont l'objet d'étude du troisième chapitre. Chaque couche du système est modélisée à forts niveaux d'excitation suivant une loi de Forchheimer. Les différents matériaux sont décrits par la méthode de la matrice de transfert. Le cas où le multi-couche est directement collé à une paroi rigide et le cas où il y a une cavité d'air avant la paroi rigide sont examinés.Dans le dernier chapitre, l'étude sur la transparence acoustique à forts niveaux est initiée. Les perspectives de ce travail sont nombreuses et prometteuses pour l'acoustique des transports
This work deals with the acoustical properties of systems incorporating Micro-Perforated Panels (MPP) and absorbing materials under high level of excitation.In the first chapter, absorbent systems composed of an air-cavity backed MPP are studied at high level of excitations. An analytical model involving two dimensionless parameters and an optimum Mach number is proposed. This model describes the behavior of the maximum of absorption coefficient (absorption coefficient at the resonance) with respect to the Mach number inside the perforations. A formula is proposed that predicts the variations of the absorption peak with the acoustical Mach number.In the second chapter, the holes interaction effects are studied theoretically and experimentally under high levels of excitations. Following an equivalent fluid approach, a model for which the tortuosity is corrected to account for the holes interaction effects coupled to the jet-like effects is developed. Multi-layered absorbents composed of MPP and porous materials are then studied under high level of excitations. The case where the multi-layers are directly attached to a rigid wall and the case where there is an air cavity before the rigid wall are examined. Forchheimer's law is used to model each medium of the multi-layer and the use of the transfer matrix method is made to account for these media.Sound transmission study under high level of excitation is introduced. The perspectives of this work are numerous and promising in the acoustics of transportation systems applications
APA, Harvard, Vancouver, ISO, and other styles
6

Demmel, Sébastien. "Construction de cartes étendues des difficultés de la route fondée sur la fusion de cartes locales." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0051.

Full text
Abstract:
Cette thèse investigue l'utilisation et les performances des systèmes coopératifs pour l'estimation en temps réel du risque routier. Nous offrons en premier lieu une discussion sur les limitations et performances des communications inter-véhiculaire (CIV) et construisons ensuite un modèle à partir de données empiriques collectées sur les pistes d'essais de versailles-Satory. Nos résultats sont plus pessimistes que la littérature existante, suggérant que les limitations des CIV ont été sous-estimées. En second lieu, nous développons une architecture de simulation pour les systèmes coopératifs et la perception augmentée. Cette architecture est mise en oeuvre pour obtenir de nouveaux résultats quant aux bénéfices d sécurité des systèmes coopératifs, particuluèrement une application de freinage d'urgence dans une file de véhicules. D'abord, nous confirmons de précédents résultats sur la réduction du nombre de collisions mais soulevons des doutes quant à la réduction de la gravité de ces collisions. Ensuite, nous comparons l'estimation du risque basée sur des approches coopératives (avec une carte augmentée) et non-coopératives (avec des capteurs exclusivement locaux) dans ce même scénario. Nos résultats montrent que l'utilisation de l'approche coopérative est systématiquement meilleure que la non-coopérative, allant jusqu'à tripler le délai d'avertissement fourni aux conducteurs avant l'accident. Les limitations des CIV n'ont pas eu d'impact sur ce résultat, mais cette conclusion pourrait n'être valide que pour le scénario considéré. Enfin, en dernier lieu, nous proposons une nouvelle approche utilisant la perception augmentée pour la détection des presque-accidents
This thesis investigates the use and performance of augmented perception (Cooperative Systems) for assessment of raod risk. We provide a discussion on intervehicular communications (IVC) limitations and performance model built to incorporate them, created from empirical data collected on the tracks. Our results are more pessimistic than existing literature, suggesting IVC limitations have been underestimated. Then, we develop a CS/Augmented perception simulation architecture. This architecture is used to obtain news results on the safety benefits of a cooperative safety application. At the first, we confirm earlier results in terms of crashes numbers decrease, but raise doubts on benefits in etrms of crashes' severity. Then, augmented and single-vehicule perceptions are compared in a reference driving scenarion for risk assessment. Our results show that augmented perception performance, although this might be valid only for our specific scenario. Eventually, we propose a new approach using augmented perception to identify road risk through a surrogate: near-miss events
APA, Harvard, Vancouver, ISO, and other styles
7

Pouget, Julien. "Test des systèmes sur puce : ordonnancement et exploration de l'espace des solutions architecturales." Montpellier 2, 2002. http://www.theses.fr/2002MON20094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Mariani, Robert. "Contribution à la lecture automatique de cartes." Rouen, 1997. http://www.theses.fr/1997ROUES090.

Full text
Abstract:
Un projet de lecture automatique de cartes a débuté à l'institut Geographique National (IGN) en 1991. L'objectif de ce projet est de fournir une plate-forme de conversion automatique des cartes géographiques aux 1 : 25000 en données vecteurs manipulables par un système d'information géographique (SIG). L’IGN étant un producteur de cartes, nous travaillons directement sur les planches mères, et évitons ainsi le problème de séparation des couleurs. Les planches sont scannées en niveau de gris à 50 microns. Le travail a porté sur la définition et la segmentation des textures linéaires de la carte, ainsi que l'apprentissage et la segmentation des textures bidimensionnelles de la carte, l'extraction, la reconstruction et l'attribution du réseau hydrographique et routier. Les textures linéaires sont définies par des grammaires attribuées et la reconnaissance s'effectue par programmation dynamique (appariement de modelés élastiques) tolérante aux omissions, distorsions et bruits. Les textures 2D sont décrites par un graphe planaire obtenu par triangulation de Delaunay. Cette description structurelle est ensuite apprise par des réseaux de neurones, qui effectueront une classification de régions homogènes. Ces dernières sont obtenues par segmentation de type partage et réunion d'une image en niveau de gris obtenue après un lissage gaussien de l'image initiale. A la fin, une étape de régularisation est réalisée par relaxation probabiliste et croissance de régions. Finalement, les réseaux sont modélisés par des graphes, et leur reconstruction et attribution sont formalisées à l'aide d'outils de la théorie des graphes. La reconstruction utilise à la fois les connaissances sur le graphe du réseau naturel (connexe, peu de cycles, planaire), et sur sa représentation cartographique (lignes tiretées, traits et surfaces texturées). Chaque algorithme est dédié à un type de représentation particulière, ici les lignes tiretées, les traits pleins et les objets surfaciques interrompus. Ces interruptions, spécifiques au réseau hydrographique, sont dues à la présence du réseau routier qui passe par-dessus les cours d'eau. Enfin, l'attribution du graphe du réseau hydrographique, consiste à établir sa structure hiérarchique (cours d'eau temporaires, permanents, importants), identifier les cours d'eau bordés d'arbres, associer la toponymie, et valider la reconstruction avec le graphe du réseau routier.
APA, Harvard, Vancouver, ISO, and other styles
9

Lubaszewski, Marcelo Soares. "Le test unifié de cartes appliqué à la conception de systèmes fiables." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1994. http://hdl.handle.net/10183/26862.

Full text
Abstract:
Si on veut assurer de fawn efficace les tests de conception, de fabrication, de maintenance et le test accompli au cours de l'application pour les systemes electroniques, on est amend a integrer le test hors-ligne et le test en-ligne dans des circuits. Ensuite, pour que les systemes complexes tirent profit des deux types de tests, une telle unification doit etre &endue du niveau circuit aux niveaux carte et module. D'autre part, bien que rintegration des techniques de test hors-ligne et en-ligne fait qu'il est possible de concevoir des systemes pour toute application securitaire, le materiel ajoute pour assurer une haute siirete de fonctionnement fait que la fiabilite de ces systemes est reduite, car la probabilite d'occurrence de fautes augmente. Confront& a ces deux aspects antagoniques, cette these se fixe l'objectif de trouver un compromis entre la securite et la fiabilite de systemes electroniques complexes. Ainsi, dans un premier temps, on propose une solution aux problemes de test hors-ligne et de diagnostic qui se posent dans les &apes intermediaires de revolution vers les cartes 100% compatibles avec le standard IEEE 1149.1 pour le test "boundary scan". Une approche pour le BIST ("Built-In Self-Test") des circuits et connexions "boundary scan" illustre ensuite retape ultime du test hors-ligne de cartes. Puis, le schema UBIST ("Unified BIST") - integrant les techniques BIST et "self-checking" pour le test en-ligne de circuits, est combine au standard IEEE 1149.1, afin d'obtenir une strategie de conception en vue du test unifie de connexions et circuits montes sur des cartes et modules. Enfin, on propose un schema tolerant les fautes et base sur la duplication de ces modules securitaires qui assure la competitivite du systeme resultant du point de vue de la fiabilite, tout en gardant sa silrete inherente.
On one hand, if the goal is to ensure that the design validation, the manufacturing and the maintenance testing, along with the concurrent error detection are efficiently performed in electronic systems, one is led to integrate the off-line and the on-line testing into circuits. Then, for complex systems to make profit of these two types of tests, such unification must be extended from the circuit to the board and module levels. On the other hand, although the unification of off-line and on-line testing techniques makes possible the design of systems suiting any safety application, the hardware added for increasing the application safety also decreases the system reliability, since the probability of occurrence of faults increases. Faced to these two antagonist aspects, this thesis aims at finding a compromise between the safety and the reliability of complex electronic systems. Thus, firstly we propose a solution to the off-line test and diagnosis problems found in the intermediate steps in the evolution towards boards which are 100% compliant with the IEEE standard 1149.1 for boundary scan testing. An approach for the BIST (Built-In Self-Test) of boundary scan circuits and interconnects then illustrates the ultimate step in the board off-line testing. Next, the UBIST (Unified BIST) scheme - merging BIST and self-checking capabilities for circuit on-line testing, is combined with the IEEE standard 1149.1, in order to obtain a design strategy for unifying the tests of interconnects and circuits populating boards and modules. Finally, we propose a fault-tolerant scheme based on the duplication of these kind of modules which ensures the competitivity of the resulting system in terms of reliability at the same time as preserving the inherent module safety.
APA, Harvard, Vancouver, ISO, and other styles
10

Lubaszewski, Marcelo. "Le test unifié de cartes appliqué à la conception de systèmes fiables." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0055.

Full text
Abstract:
Si on veut assurer de facon efficace les tests de conception, de fabrication, de maintenance et le test accompli au cours de l'application pour les systemes electroniques, on est amene a integrer le test hors-ligne et le test en-ligne dans des circuits. Ensuite, pour que les systemes complexes tirent profit des deux types de tests, une telle unification doit etre etendue du niveau circuit aux niveaux carte et module. D'autre part, bien que l'integration des techniques de test hors-ligne et en-ligne fait qu'il est possible de concevoir des systemes pour toute application securitaire, le materiel ajoute pour assurer une haute surete de fonctionnement fait que la fiabilite de ces systemes est reduite, car la probabilite d'occurrence de fautes augmente. Confrontee a ces deux aspects antagoniques, cette these se fixe l'objectif de trouver un compromis entre la securite et la fiabilite de systemes electroniques complexes. Ainsi, dans un premier temps, on propose une solution aux problemes de test hors-ligne et de diagnostic qui se posent dans les etapes intermediaires de l'evolution vers les cartes 100% compatibles avec le standard IEEE 1149. 1 pour le test "boundary scan". Une approche pour le BIST ("Built-In Self-Test") des circuits et connexions "boundary scan" illustre ensuite l'etape ultime du test hors-ligne de cartes. Puis, le schema UBIST ("Unified BIST") - integrant les techniques BIST et "self-checking" pour le test en-ligne de circuits, est combine au standard IEEE 1149. 1, afin d'obtenir une strategie de conception en vue du test unifie de connexions et circuits montes sur des cartes et modules. Enfin, on propose un schema tolerant les fautes et base sur la duplication de ces modules securitaires qui assure la competitivite du systeme resultant du point de vue de la fiabilite, tout en gardant sa sureté inherente
On one hand, if the goal is to ensure that the design validation, the manufacturing and the maintenance testing, along with the concurrent error detection are efficiently performed in electronic systems, one is led to integrate the off-line and the on-line testing into circuits. Then, for complex systems to make profit of these two types of tests, such unification must be extended from the circuit to the board and module levels. On the other hand, although the unification of off-line and on-line testing techniques makes possible the design of systems suiting any safety application, the hardware added for increasing the application safety also decreases the system availability and reliability, since the probability of occurrence of faults increases. Faced to these two antagonist aspects, this thesis aims at finding a compromise between the safety and the reliability of complex electronic systems. Thus, firstly we propose a solution to the off-line test and diagnosis problems found in the intermediate steps in the evolution towards boards which are 100% compliant with the IEEE standard for boundary scan testing. An approach for the BIST (Built-In Self-Test) of boundary scan circuits and interconnects then illustrates the ultimate step in the board off-line testing. Next, the UBIST (Unified BIST) scheme - merging BIST and self-checking capabilities for circuit on-line testing, is combined with the IEEE standard for boundary scan testing, in order to obtain a design strategy for unifying the tests of interconnects and circuits populating boards and modules. Finally, we propose a fault-tolerant scheme based on the duplication of these kind of modules which ensures the competitivity of the resulting system in terms of reliability at the same time as preserving the inherent module safety
APA, Harvard, Vancouver, ISO, and other styles
11

Fouque, Clément. "Apport des cartes routières navigables pour le positionnement par satellites des véhicules terrestres." Compiègne, 2010. http://www.theses.fr/2010COMP1883.

Full text
Abstract:
Les véhicules récents disposent souvent d'un système d'aide à la navigation intégré combinant un récepteur GPS et un système d'information géographique exploitant une carte routière navigable. La connaissance de la position du véhicule, qu'elle soit globale ou relative au réseau routier, est un point clé pour les applications liées aux systèmes de transport intelligent. En zone urbaine dense, l'utilisation du GPS est rendue difficile par la présence d'éléments masquant fréquemment les satellites : le positionnement est donc régulièrement indisponible. Dans cette thèse, l'utilisation des cartes routières navigables pour le positionnement par satellites est discutée. En suivant une approche par couplage serré, la carte navigable peut être utilisée comme une source d'information additionnelle dans le calcul de la position. Nous proposons dans un premier temps deux méthodes permettant de résoudre le problème du positionnement global et relatif en introduisant la géométrie du réseau routier dans le calcul standard d'un point GPS. La nécessité d'extraire la géométrie nous a conduit à proposer une méthode de sélection de route. Des résultats expérimentaux valident l'approche, quantifient la sensibilité de la méthode aux biais cartographiques et montrent la nécessité d'une sélection de route performante. Nous nous intéressons ensuite au problème du positionnement global par satellites aidé de l'information cartographique selon une approche dynamique. L'information cartographique est utilisée pour estimer l'orientation du véhicule, qui est fusionnée avec les capteurs proprioceptifs du véhicule et les données de pseudodistance d'un récepteur GPS grâce au filtrage de Kalman. La carte permet alors de compenser efficacement la dérive odométrique pendant les masquages des satellites comme le montrent les résultats expérimentaux. Finalement, nous nous sommes intéressés au problème du positionnement contraint dans lequel la position est recherchée sur un élément géographique de la carte. Le problème est posé dans un cadre de filtrage bayésien dans lequel il s'agit d'estimer un état hybride à composantes continues et discrètes. L'approche étant multi-hypothèse, nous présentons comment estimer les hypothèses de positionnement avec un solveur de type filtre particulaire. Ce solveur est factorisé pour en faciliter l'implémentation puis appliqué au suivi des hypothèses par couplage serré de la carte, des mesures GPS et des mesures proprioceptives du véhicule. Les résultats expérimentaux illustrent l'intérêt de cette approche qui permet notamment de résoudre le positionnement contraint sans la connaissance d'un positionnement global préalable. La méthode permet de qualifier naturellement les zones d'ambiguïté malgré la présence de biais cartographiques et également en cas de faible visibilité satellitaire
For many intelligent transportation systems applications, the vehicle position is a key information. In this thesis, the use of navigable road-map for global positioning is investigated. Using a thigtly-coupled approach, the map can provided additionnal information in the computation. First, the geometrical information from the map is introduced in a standard GPS computation and in a Kalman filter approach to aid the global positioning. The experimental results shows that the map is able to compensate for the lack of intention due to satellites outages. It also illustrated the need of an effective road selection process. Finally, the problem of map-constraint positioning have been considered in a multi-hypothesis bayesian framework. The problem is stated as a hybrid state system involving continous and discrete states. Thus, the constrained positioning can be solved without a prior global location as illustrated results. In addition, this method allows the identification of ambigous area in spite of partial outages and map biases
APA, Harvard, Vancouver, ISO, and other styles
12

Pallaver, Tanguy. "Auto-adaptativité et topologie dans les cartes de Kohonen." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23655/23655.pdf.

Full text
Abstract:
Nous modifions l’algorithme non supervisé de Kohonen sur la base de considérations biologiques, dans le double intérêt d’améliorer ses performances de modélisation et d’enrichir sa valeur de modèle théorique d’auto-organisation neuronale. À chaque étape de nos recherches sur l’auto-adaptativité et la topologie des cartes de Kohonen, nous intégrons nos conclusions à un algorithme opérationnel : version normée, multirythmique et auto-instruite. Deux nouvelles fonctions sont introduites : l’Attractivité locale AintL inspirée du « Growing Neural Gas network »(GNG) et la Connaissance Cint, qui permettent de réduire l’erreur de modélisation jusqu’à 80% de l’erreur standard. L’extension du cadre classique d’étude de la topologie petit-monde, récemment décou- verte dans quantité de réseaux, à la théorie de l’information, nous permet par ailleurs de mettre en lumière le lien temporel entre structure (topologie) et fonction (apprentissage et connaissance) du système de neurones.
Using biological understanding we have modified the unsupervised Kohonen algo- rithm, with two aims : to improve the performance of modelisation and to make this theoretical model of neural self-organisation more realistic. At various stages during our research into the auto-adaptivity and topology of Kohonen maps, we implemented our findings into practical algorithms creating normalised, multirhythmic and self-instructed versions. Two new functions are introduced : local attractivity AintL , inspired from Growing Neural Gas networks (GNG), and knowledge Cint. Using these, modelisation error is reduced by up to 80% of the standard error. Guided by recent work that shows small-world topologies exist in a large number of networks, we have extended this classic approach to information theory. This has highlighted the temporal link between structure (topology) and function (learning and knowledge) in the neural system.
APA, Harvard, Vancouver, ISO, and other styles
13

Hélie, Thomas. "Modélisation physique d'instruments de musique en systèmes dynamiques et inversion." Paris 11, 2002. http://www.theses.fr/2002PA112315.

Full text
Abstract:
Notre travail de thèse porte sur la modélisation et l'inversion "son/geste instrumental" d'instruments de musique, avec comme application type les cuivres et la production de la voix. La modélisation physique a un grand intérêt pour la synthèse sonore puisqu'elle donne non seulement le son mais aussi le comportement de l'instrument (attaques, transitoires, fausses notes, etc. ). Pour ces raisons, la difficulté à jouer des instruments virtuels est la même que pour l'instrument réel. La difficulté du contrôle de ces modèles amène donc la question de l'inversion : comment dois-je contrôler mon modèle pour obtenir ce son cible que ce musicien a obtenu avec son vrai instrument? Pour traiter cette problématique de front, nous indiquons de quelle manière les modèles de synthèse et les procédés d'inversion doivent être pensés simuletanément. Notre thèse présente donc une série de travaux visant à obtenir des objets mathématiques aussi simples que possibles et qui possèdent de telles propriétés. Le problème de l'excitateur (lèvres, anches, etc. . ) a été traité dans le DEA, celui du résonateur (décrire la propagation dans un tube à section variable et son rayonnement) est donc l'objet principal de ce travail de thèse. En première partie, nous établissons un modèle 1D nouveau de propagation acoustique dans les tubes à symétrie axiale à variation de section lente. Ce modèle permet de prendre en compte par exemple la mobilité des parois (cas adapté au conduit vocal), ou encore la présence de pertes visco-thermiques (qui fait intervenir des dérivées fractionnaires). Pour ce dernier cas, il est possible de représenter le guide entier par la concaténation de systèmes entrée-sortie quo-dripôlaires associés à des tronçons de tubes localement adaptés à la géométrie du guide. Les fonctions de transfert étant trop complexes pour permettre une simulation temporelle à faible coût, nous proposons deux méthodes pour les approcher par des systèmes différentiels linéaires d'ordre fini à retard. Ces méthodes reposent sur les séries divergentes tronquées et la théorie des représentations diffusives d'opérateurs pseudo-différentiels, respectivement. En deuxième partie, un modèle nouveau de rayonnement acoustique de pavillon tenant compte de la courbure du front d'onde est développé et utilisé comme condition de frontière de l'instrument. Les résultats de ces travaux ont permis l'étude des cuivres et partiellement du conduit vocal
This work deals with the modeling and the inversion process "sound/instrumental gesture" of musical instruments with like standard application : brasses and production of the voice. The physical modeling has large a interest for the sound synthesis since it generates not only the sound but also the behavior of the instrument (attacks, transients, false notes, etc). For these reasons, the difficulty of playing with virtual instruments is comparable to that of real instruments. The difficulty of controlling such models leads to the question of the inversion process : "how do I control my model to obtain this target sound that this musician obtained with his own instrument?" To cope with this problematic, we first indicate that the synthesis modeling and the associated inverse system may be thought together. Our thesis presents a work aiming to obtain mathematic objects as simple as possible. The problem of the excitor (lips, reeds, etc. . ) has been considered during our Master's Thesis. That of the resonator (description of the propagation in a pipe with a varying cross-section and its radiation) are thus the principal object of this work. In the first part, we establish a new model 1D of the acoustic propagation in axisymmetrical pipes with a slowly varying cross-section. This model makes it possible to take into account for example the motion of walls (case adapted with the vocal tract), or the existence of visco-thermic losses (which involes fractional derivatives). For this last case, it is possible of represent the whole guide by concatenating input-ouput systems associated with pieces of pipes locally adapted with the curvature of the pipe. As the involved transfer functions are too complicated to allow the derivation of a low cost time-simulation, we propose two methods which approach them with linear differential systems of finite order with delay. These methods are based on, respectively, troncated divergent series, and the theory of the diffusive representations of pseudo-differential operators. In the second part, a new model of the radiation of the bell which takes the wavefront curvature is developed and used to model the boundary condition at the output of the instrument. The results of this work may be used for the study of the brasses and, partially, for the vocal tract
APA, Harvard, Vancouver, ISO, and other styles
14

Verdier, Marianne. "Interchanges et tarification des systèmes de paiement par carte." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00005184.

Full text
Abstract:
La détention et l'usage des instruments de paiement se sont considérablement développés dans les pays industrialisés. Le succès des cartes de paiement peut s'expliquer par la présence de systèmes de paiement interbancaires, comme "Visa" ou "MasterCard", organisant les interactions entre la banque du porteur, l'émetteur, et la banque du commerçant, l'acquéreur. Cette thèse s'intéresse à un mécanisme d'allocation des coûts particulier pratiqué par les plates-formes de paiement: les interchanges. On appelle "interchange" la subvention versée par la banque du commerçant à la banque du porteur à chaque fois qu'un consommateur utilise sa carte de paiement. En faisant baisser le prix payé par le consommateur pour une transaction, les interchanges contribuent à encourager l'usage des cartes de paiement au détriment des espèces. La thèse s'articule autour de deux problématiques. La première problématique concerne l'effet des interchanges sur les investissements des acteurs des systèmes de paiement par carte. La seconde problématique traite de l'impact des interchanges sur la substitution entre la carte de paiement et les espèces. Dans le premier chapitre de la thèse, nous effectuons une analyse empirique de l'industrie des cartes de paiement en France et en Europe. Dans le second chapitre de la thèse, nous construisons un modèle théorique destiné à présenter les résultats de la littérature sur les interchanges. Dans le troisième chapitre, nous abordons la question de l'influence des interchanges sur les investissements des banques pour améliorer la qualité du service de paiement, et sur les investissements des commerçants pour contourner la plate-forme, en émettant des cartes privatives. Dans le quatrième chapitre de la thèse, nous traitons de l'impact des interchanges sur les mécanismes de substitution entre la carte et les espèces.
APA, Harvard, Vancouver, ISO, and other styles
15

Van, Hoecke Marie-Pierre. "Contribution à la modélisation des systèmes d'information communicationnels intégrant des cartes à micro-processeur." Lille 1, 1996. http://www.theses.fr/1996LIL10006.

Full text
Abstract:
Ce travail se situe dans un domaine nouveau de l'informatique d'entreprise: l'informatique nomade. Il introduit le concept de systeme d'information communicationnel, qui integre deux dimensions en emergence: la communication et l'individu. L'etude des relations mises en jeu entre des groupes d'individus et des groupes d'organisations, nous conduit a proposer des modeles generaux de systemes d'information. Ceux-ci rendent compte de la forte composante en communication necessaire a la gestion de differents types de liens a etablir entre les individus et les organisations. Ils integrent, de plus, les problemes poses par le nomadisme des acteurs de type individus et l'utilisation de sites informatiques mobiles, parmi lesquels nous considerons plus particulierement les cartes a micro-processeur. Pour combler la lacune actuelle en modeles et methodes dans la conception et l'implementation de ce type de systemes, nous proposons une modelisation des systemes d'information communicationnels. Cette modelisation en couches aborde tout d'abord les aspects de typologie des reseaux, dont la gestion est rendue particuliere par la deconnexion quasi-permanente des sites mobiles. Elle traite ensuite des aspects transactionnels en considerant la repartition des processus entre les differents partenaires informatiques impliques, puis elle decrit la communication structuree entre systemes d'information heterogenes. Les differents modes de communication etablis entre individus et organisations nous fournissent trois types de systemes d'information communicationnels, dont nous etudions l'implementation. Nous nous interessons aux problemes poses par la distribution des donnees entre les sites et la gestion des bases de donnees virtuelles, reparties entre un ensemble de cartes ou federees par une carte. Nous presentons un prototype, realise a partir d'une carte cql, de systeme d'information communicationnel implementant un lien l-n entre un individu et n organisations
APA, Harvard, Vancouver, ISO, and other styles
16

Jean, Sébastien. "Modèles et architectures d'interaction interne et externe pour cartes à microprocesseur ouvertes." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-329.pdf.

Full text
Abstract:
La carte à microprocesseur a, en presque trente ans d'existence, conquis nos poches en rendant discrètement une multitude de services dans des domaines aussi variés que la finance ou la téléphonie. Aborder la carte à puce est un peu comme jouer à Tetris, jeu d'encastrement de polyominos. Ses contraintes matérielles sont si fortes qu'il faut arranger avec une compacité maximale les composants logiciels lui donnant corps. Son utilisation ne saurait se concevoir sans l'existence d'application cliente issue d'un système d'information réparti dans lequel elle s'intègre. Ceci induit alors un second type de puzzle, consistant à emboîter applications encartées et distantes, non trivial du fait des caractéristiques des cartes en termes de présence et de communication. L'émergence de cartes dites ouvertes, embarquant et exécutant plusieurs applications non-concurrentes, a enfin engendré un dernier type d'emboîtement, visant à faire coopérer plusieurs applications encartées
Nous présentons le résultat de recherches portant sur les deux derniers types d'arrangements et poursuivant deux objectifs. Nous souhaitions, d'une part, définir un cadre cohérent pour l'intégration de cartes ouvertes réactives au sein de systèmes d'information répartis (i. E. Où les applications encartées peuvent être à la fois clientes et serveurs) et, d'autre part, pouvoir disposer d'un support de coopération interne permettant un partage fin, contrôlé et évolutif, tant des informations que des compétences des applications encartées. Apporter une réponse au premier problème a un impact sur l'ensemble de l'infrastructure logicielle. La solution que nous avons proposée, baptisée AWARE, est le reflet de cette globalité. Elle s'articule autour d'un modèle d'exécution multi-tâches pour cartes ouvertes, où l'ordonnancement des tâches s'effectue depuis l'extérieur de la carte, et s'accompagne d'un modèle de programmation facilitant la conception d'applications réparties intégrant de telles cartes. Nous avons également proposé un modèle de coopération intra-carte basé sur quelques-uns des principes des bases de données relationnelles
APA, Harvard, Vancouver, ISO, and other styles
17

Premont, Christophe. "Etude et conception d'un composant analogique programmable en technologie CMOS standard." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0028.

Full text
Abstract:
L’objet de ce mémoire de thèse est l'étude et la conception d'un composant analogique programmable en technologie CMOS standard. Ce composant que l'on appelle indifféremment, réseau analogique programmable ou composant analogique programmable, est constitué d'un réseau de cellules analogiques. Chaque cellule doit être configurable pour remplir différentes fonctionnalités avec des spécifications particulières. D'autre part, les interconnexions entre ces différentes cellules doivent être elles aussi configurables. La configuration du réseau pour permettre l'implémentation d'une fonction analogique donnée se fait par une interface (analogique ou numérique) qui permet la reprogrammation et la sauvegarde des informations de configuration. Une nouvelle approche basée sur des amplificateurs à transrésitance utilisant des convoyeurs de courants met en œuvre des transconductances différentielles offrant de larges gammes de programmation avec des performances électriques intéressantes. Ce mémoire décrit l'étude et la conception de ce composant et s articule principalement autour de six chapitres. Le premier chapitre développe tout d abord le concept du réseau analogique programmable. Le second chapitre propose une méthodologie de conception des circuits analogiques. On y définit l’architecture du réseau en terme d’arcs et d interconnexions, ainsi que l’élément de base utilisé pour construire de applications analogiques, la cellule analogique reconfigurable. L'objet du troisième chapitre est d'une part, de mettre en évidence les enjeux liés à la conception de circuits ana logiques utilisant le courant comme porteur de l’information utile, et d’autre part, de présenter un circuit particulier le convoyeur de courant. Le quatrième chapitre présente la cellule analogique Reconfigurable qui est utilisée comme brique élémentaire pour bâtir les différentes applications analogiques à intégrer dans le composant programmable. L'objet du cinquième chapitre est de présenter la structure du composant et les différentes solutions retenues. Le but du dernier chapitre est double. Il s'agit dans un premier temps de développer quelques exemples d’applications puis de développer des perspectives d'avenir pour ce composant analogique programmable
This thesis is concerned with the study and the design of a field-programmable analogue array with a CMOS standard process. This circuit is an analogue cells based array. Each cell is programmable and can achieve various analogue functions with specific performance. Beside, the interconnections between the cells have to be programmable. The array configuration is achieved using a digital or an analogue interface circuitry to implement a particular function. For a flexible programmability and high-electrical performance, a new approach based and a transresistor amplifier using current conveyors have been developed to control full-differential transconductances. This report falls into six chapters. The first one deals with the concept of field programmable analogue array. The second chapter presents a methodology for describing analogue circuits. The array architecture is studied according to the requirements for such a programmable circuit. The main feature of the third chapter is to introduce the current-mode approach with the current conveyor. The fourth chapter presents the programmable analogue cell designed during the project. The structure of the analogue array and the proposed solutions are thoroughly described in the fifth chapter. The last chapter presents some application examples and it focuses on future works
APA, Harvard, Vancouver, ISO, and other styles
18

Perozo, Niriaska. "Modélisation multi-agents pour systèmes émergents et auto-organisés." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1531/.

Full text
Abstract:
Dans ce travail, une architecture multi-agents pour systèmes émergents et auto-organisés (MASOES) est définie. Cette architecture permet la possibilité de modéliser une système émergent et auto-organisés à travers une société d'agents (homogène ou hétérogène), qui travaillent de manière décentralisée, avec différents types de comportement: réactive, imitative et cognitive. En outre, ils sont capables de modifier dynamiquement leur comportement en fonction de leur état émotionnel, de sorte que les agents peuvent s'adapter dynamiquement à leur environnement, en favorisant l'émergence de structures. Pour cela, un modèle à deux dimensions affectives avec des émotions positives et négatives est proposé. L'importance de ce modèle affectif, c'est qu'il y a pas des modèles émotionnels pour étudier et comprendre comment modéliser et simuler émergentes et auto-organisés des processus dans un environnement multi-agent et aussi, son utilité pour étudier certains aspects de l'interaction sociale multi-agent (influence des émotions dans les comportements individuels et collectifs des agents). Leer fonéticamente D'autre part, une méthodologie pour faire la modélisation avec MASOES est spécifiée, elle explique comment décrire les éléments, relations et mécanismes au niveau individuel et collectif de la société d'agents, qui favorisent l'analyse de phénomène auto-organisatif et émergent sans modéliser le système mathématiquement. Il est également proposé une méthode de vérification pour MASOES basée sur le paradigme de la sagesse des foules et de cartes cognitives floues (CCFs), pour testé les spécifications de design et les critères de vérification établis, tels que: la densité, la diversité, l'indépendance, l'émotivité, l'auto-organisation et émergence, entre autres. Il montre également l'applicabilité de MASOES par des études de cas diverses dans différents contextes comme : Wikipedia, développement de logiciel gratuit et comportement collectif des piétons par le modèle de forces sociales. Finalement, les deux modèles proposés dans MASOES: le modèle multi-agent initiale et le modèle avec CCFs basé sur ce modèle multi-agent initiale se complètent mutuellement. Cela signifie qu'il est possible de tester le modèle multi-agent à travers le méta-modèle basé sur las CCFs. En outre, il représente une nouvelle alternative pour étudier, tester, vérifier ou valider l'auto-organisation et émergence dans les systèmes complexes et de tester le modèle multi-agent, car il est difficile de faire des tests dans ces systèmes pour le niveau d'incertitude et de complexité qu'ils traitent
In this work a multi-agent architecture for self-organizing and emergent systems (MASOES) is defined. This architecture allows the possibility of modeling a self-organizing and emergent system through a society of agents (homogenous or heterogeneous), who work in a decentralized way, with different types of behavior: reactive, imitative or cognitive. Also they are able to dynamically change their behavior according to their emotional state, so that the agents can adapt dynamically to their environment, favoring the emergence of structures. For it, a two-dimensional affective model with positive and negative emotions is proposed. The importance of this affective model is that there are not emotional models for studying and understanding how to model and simulate emergent and self-organizing processes in a multi-agent environment and also, its usefulness to study some aspects of social interaction multi-agent (e. G. The influence of emotions in individual and collective behavior of agents). On the other hand, a methodology for modeling with MASOES is specified, it explains how to describe the elements, relations and mechanisms at individual and collective level of the society of agents, that favor the analysis of the self-organizing and emergent phenomenon without modeling the system mathematically. It is also proposed a verification method for MASOES based on the paradigm of wisdom of crowds and fuzzy cognitive maps (FCMs), for testing the design specifications and verification criteria established such as: density, diversity, independence, emotiveness, self-organization and emergence, among others. It also shows the applicability of MASOES for modeling diverse case studies (in a diversity of contexts) such as: Wikipedia, Free Software Development and collective behavior of pedestrians through the Social Force Model. Finally, the two models proposed in MASOES: the initial multi-agent model and the model with FCMs based on that initial multi-agent model complement each other. This means that it is possible to test the multi-agent model through the meta-model based on FCMs. Besides, it represents a novel alternative to study, test, verify or validate self-organization and emergence in complex systems and test the multi-agent model, since it is difficult to make tests in these systems directly, given the level of uncertainty and complexity they manage
APA, Harvard, Vancouver, ISO, and other styles
19

Bouttier, Jérémie. "Physique statistique des surfaces aléatoires et combinatoire bijective des cartes planaires." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00010651.

Full text
Abstract:
Les cartes sont des objets combinatoires apparaissant en physique comme discrétisation naturelle des surfaces aléatoires employées pour la gravité quantique bidimensionnelle ou la théorie des cordes, ainsi que dans les modèles de matrices. Après rappel de ces relations, nous établissons des correspondances entre diverses classes de cartes et d'arbres, autres objets combinatoires de structure simple. Un premier intérêt mathématique de ces constructions est de donner des preuves bijectives, élémentaires et rigoureuses, de plusieurs résultats d'énumération de cartes. Par ailleurs, nous accédons ainsi à une information fine sur la géométrie intrinsèque des cartes, conduisant à des résultats analytiques exacts grâce à une propriété inattendue d'intégrabilité. Nous abordons enfin la question de l'existence d'une limite continue universelle.
APA, Harvard, Vancouver, ISO, and other styles
20

Kamel, Nassima. "Sécurité des cartes à puce à serveur Web embarqué." Limoges, 2012. https://aurore.unilim.fr/theses/nxfile/default/9dc553cd-e9df-4530-a716-d3191d68dfa0/blobholder:0/2012LIMO4039.pdf.

Full text
Abstract:
Les cartes à puces sont des dispositifs sécurisés, de plus en plus utilisés dans le monde. Leur succès est principalement dû à leur aspect tamper-resistant qui permet de stocker des informations sensibles (clés de chiffrement) de manière sécurisée. Vu les nombreux sensibles domaines d’utilisation des cartes à puce (bancaire, médical, téléphonie), plusieurs recherches se sont intéressés à la sécurité et aux attaques possibles sur ces dispositifs. La nouvelle génération de cartes à puce définit un serveur Web embarqué. Il existe principalement deux types de spécifications pour ces nouveaux dispositifs, la première a été établie par l’organisation OMA qui propose un simple serveur HTTP nommé Smart Card Web Serveur (SCWS) indépendant de la plateforme d’exécution. La seconde est une nouvelle version de Java Card proposée par Sun Microsystems (actuellement Oracle), nommée Java Card 3, édition connectée ; elle inclue le support de l’API Java servlet 2. 4, et une amélioration significativement de l’API Java Card (thread, String, etc. ) et des fonctionnalités de sécurité supportées. L’intégration du serveur Web dans la carte à puce apporte un ensemble d’avantages et définit un nouvel usage de la carte à puce. En effet, en plus de l’aspect authentification robuste que la carte peut désormais fournir sur le réseau, l’utilisation des standards du Web permet d’avoir une expérience utilisateur continue et enrichit l’aspect et la convivialité des interfaces fournies via un navigateur Web. Face à ces avantages, les risques d’attaques augmentent. En plus des attaques classiques connues sur les cartes à puce (physiques et logiques), certaines attaques Web connues sur des applications Web standards peuvent se reproduire sur les cartes à puce. Parmi ces attaques, la Cross Site Scripting (appelée aussi XSS) est l’une des plus répandues ; elle est simple à réaliser mais ses conséquences peuvent être très graves. Cette attaque exploite des applications vulnérables qui ne filtrent pas les données non fiables (entrée par un utilisateur) avant de les utiliser. Elle consiste à injecter un code malicieux dans une entrée fournie par l’application, qui est ensuite retourné dans une ressource de l’application et exécuté dans le navigateur Web de la victime. D’autre part, les spécifications des cartes à serveur Web embarqué définissent des protocoles (HTTP, BIP, TCP/IP) qui doivent nécessairement être implémentés pour assurer la communication de la carte avec le navigateur Web et sur le réseau. Des failles d’implémentation de ces protocoles peuvent engendrer des vulnérabilités facilitant les attaques sur les cartes à puce. Dans cette thèse nous nous intéressons à la sécurité des cartes à puce à serveur Web embarqué à deux niveaux. Le premier concerne la sécurité des applications Web contre des attaques XSS. Nous proposons dans ce cadre un outil d’analyse statique des applications Web Java Card 3, qui a pour objectif de vérifier qu’une application est sécurisée contre ces attaques, incluant un filtrage des données non fiables. Notre outil peut être considéré comme un outil de certification de la robustesse des applications Web avant leur chargement dans la carte. Nous avons également implémenté une API de filtrage que le développeur peut importer dans son application. Le second niveau de sécurité exploré, concerne l’implémentation du protocole HTTP; nous suggérons un outil de fuzzing pour tester la conformité et la robustesse du protocole HTTP implémenté dans une carte. Cet outil apporte un ensemble d’optimisations qui réduit le temps du fuzzing et génère des données de test de manière intelligente
Smart cards are widely used secure devices in today’s world, which can store data in a secured manner and ensure data security during transactions. The success of smart card is mainly due to their tamper-resistant nature which allows them to store sensitive data’s like cryptographic keys. Since they are using in multiple secure domains, like banking, health insurance, etc. More and more researches are taken place in this domain for security and attacks. The last generation of smart card, defines an embedded web server. There are two types of specifications for these devices, the first one is defined by OMA organisation that propose a simple HTTP web server named Smart Card Web Server (SCWS), the second is proposed by Sun Microsystems (currently Oracle), consists of a Java card 3 connected edition platform, that includes a Java servlet 2. 4 API with improved Java Card API and security features. In addition to network benefits from the robustness of smart card, the use of web standards provide a continuous user experience, equivalent to that seen while surfing on the internet and it enhances the look and feel of GUI interfaces. The GUI interfaces are accessible from a browser which is located on the terminal on which the card is connected. However, in addition to the classical attacks (physical and logical), the integration of web server on smart card, exposes the smart card to some existing classical web application attacks. The most important one is the cross site scripting attack, also named XSS. It consists of injecting malicious data to the given web application inputs and if the resource returned to the browser includes the malicious code, it will be interpreted and executed, causing an attack. A web application is vulnerable to XSS if it uses an untrusted data without filtering malicious characters before. On the other hand, to ensure the communication between web applications and browser or other network entities, it is necessary to integrate some protocols to the smart card, for example HTTP, BIP or TCP/IP. The vulnerabilities in the implementation of these protocols can facilitate some attacks. Our contribution on this thesis is divided in two parts, in the first part, we are interested on the security of web applications against XSS attack. We suggest a static analysis tool, based on tainting approach, that allow to verify if a web application is secured or not, including filtering data in all insertion points where XSS is possible. We also implement, an API filter, compatible with Java Card 3 platform, that developers can import during the development of their applications. The second part consists of verifying the conformance and the robustness of the implemented HTTP protocol. For that we propose an intelligent fuzzing tool that includes a set of optimisations that allows to reduce the time of fuzzing
APA, Harvard, Vancouver, ISO, and other styles
21

Séré, Ahmadou Al Khary. "Tissage de contremesures pour machines virtuelles embarquées." Limoges, 2010. http://aurore.unilim.fr/theses/nxfile/default/ec9d960e-5234-4fd7-a38f-bd8107443f05/blobholder:0/2010LIMO4017.pdf.

Full text
Abstract:
L'objectif de ce travail de recherche est de proposer des moyens de garantir que l'on peut détecter une injection de faute causant la perturbation de la carte à puce. Nous souhaitons que cette détection soit automatique tout en respectant les contraintes de ressources mémoires et processeurs de la carte. Pour y parvenir, nous utilisons une fonctionnalité introduite par Java Card 3 qui est l'annotation de sécurité qui permet au programmeur de marquer les méthodes et classes sensibles de son application. Permettant à la machine virtuelle de passer dans un mode sécurisé lors de leur exécution. L'approche proposée est d'introduire des informations de sécurité dans le code et de modifier la machine virtuelle afin qu'elle les utilise pour détecter les attaques. Ces recherches se sont focalisées sur le développement de nouveaux moyens de lutter contre les attaques par injection en faute en vérifiant en temps réel l'intégrité du code ou celle du flot de contrôle
Our goal, is to propose some way to guaranty that we can detect that a fault attack occurs tampering the smart card ship. And we want to do this in an automatic way that is affordable in resources (memory and CPU averhead) for the card. To achieve this goal, we use a functionality introduced by Java Card 3, the security annotations that allow a programmer to choose sensitive methods or classes of his application. Allowing the virtual machine to execute them in a secured mode. The developed approach is to use security information introduce in application code and to modify the java virtual machine to make good use of them to detect the attack. These researches focus on proposing different mechanisms that can help to fight against fault attacks in verifying during runtime the code integrity or the control flow integrity
APA, Harvard, Vancouver, ISO, and other styles
22

Barbu, Stefan. "Conception et réalisation d'un système de métrologie RF pour les systèmes d'identification sans contact à 13,56 MHz." Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0219.

Full text
Abstract:
Les systèmes "sans contact" à 13,56 MHz deviennent de plus en plus performants en termes de vitesse, capacité mémoire, sécurité, etc. De nouveaux axes de recherche traitent de ces aspects, imposant une maîtrise complète de la couche physique, donc une connaissance approfondie de la partie RF. Avec la diversification des produits électroniques grand public et l'arrivée de nouveaux standards tels que le NFC, de plus en plus de systèmes électroniques se dotent d'une interface "sans contact" à 13,56 MHz. Afin de maximiser les capacités d'intégration et de contrôler l'interaction entre la partie "RFID" et le reste du système, il faut maîtriser tous les paramètres RF. L'essor des applications du type "sans contact", telles que le contrôle d'accès, la télé-billettique, les passeports et les visas, les cartes d'identité, pour ne citer que les plus répandues, impliquent de volumes de production élevés. Du point de vue industriel, la connaissance approfondie de la partie RF est indispensable autant pour l'optimisation des coûts de production, que pour le traitement des retours terrain. Le contexte normatif actuel fournit un minimum d'éléments pour assurer le bon fonctionnement des systèmes "sans contact". Dans ce cas, l'interopérabilité ne peut être assurée. De plus, le respect d'un gabarit ne permet pas une expertise du fonctionnement du système, les problèmes rencontrés autant en production que sur le terrain ne pouvant être diagnostiqués de manière précise. Le sujet de la présente thèse est la conception et le développement d'un système de métrologie pour la partie RF des dispositifs "sans contact" à 13,56 MHz. Nous nous sommes proposés de mettre en place une méthodologie et des outils qui permettent la caractérisation radio fréquence du comportement des systèmes RFID à couplage inductif, notamment les cartes à puce sans contact. La contribution personnelle peut être synthétisée au travers de trois approches : 1. Exhaustive – analyse approfondie du système et de son fonctionnement 2. Curative – résolution des problèmes de fonctionnement 3. Préventive – conception et simulation La problématique du fonctionnement est mise à plat, l'analyse mettant en évidence la plupart des problèmes rencontrés dans la partie RF des dispositifs "sans contact". Au travail orienté vers la résolution de problèmes s'ajoute une composante liée à la conception de tels dispositifs
The 13. 56 MHz "Contactless" systems become more and more efficient in terms of speed, memory capacity, security, etc. New research axes deal with these aspects, imposing a complete control of the physical layer, thus a thorough knowledge of the RF part. With the diversification of the consumer electronics products and the arrival of new standards such as the NFC, more and more electronic systems become equipped with a 13. 56 MHz "contactless" interface. In order to maximise the integration capacity and to control the interaction between the "RFID" part and the rest of the system, we need to control the RF parameters. The boom of "contactless" applications, such as access control, ticketing, electronic passports and visas, ID cards, for mentioning only the most widespread, imply large production volumes. From an industrial point of view, the thorough knowledge of the RF part is essential, not only for optimising manufacturing costs, but also for treating the field return. The current standardisation context provides a minimum of elements for assuring the good functioning of the "contactless" systems. In this case, the interoperability cannot be assured. Moreover, respecting a gauge does not allow an expert appraisal of the system functioning, the problems encountered in production and in field not being diagnosed in a precise manner. The subject of the present thesis is the design and the development of a metrology system for the 13. 56 MHz "contactless" systems' RF part. We have proposed ourselves to establish a methodology and some tools allowing to characterise the RF behaviour of inductive-coupling RFID system, and particularly contactless smartcards. The personal contribution can be synthesized through three approaches : 1. Exhaustive – thorough analysis of the system and its functioning 2. Curative – solving the functioning problems 3. Preventive – design and simulation The functioning problematic is analysed, emphasising most of the frequently encountered problems with the RF part of the "contactless" systems. To the problem-solving oriented work we added a component linked to the design of such devices
APA, Harvard, Vancouver, ISO, and other styles
23

Peltier, Thierry. "La carte blanche : un nouveau système d'exploitation pour objets nomades." Lille 1, 1995. http://www.theses.fr/1995LIL10166.

Full text
Abstract:
Les objets nomades permettent de faciliter la mobilité des personnes nécessaire dans la société actuelle, en rendant un service identique à son porteur quels que soient le lieu et le moment. Le nombre croissant d'objets nomades aux fonctions distinctes et toutes intéressantes, nous conduit à chercher à regrouper ces fonctions sur un même support. Certains objets nomades contiennent des informations confidentielles (dossier médical) ou critique (somme d'argent). La sécurité est donc importante pour ces objets nomades, qui peuvent être également facilement perdus ou volés. Les cartes à micro-processeur intègrent le mieux ces considérations mais elles sont mono-applicatives et leur sécurité est obtenue au dépend de l'évolutivité. Notre travail consiste donc à définir un nouvel objet nomade qui permet le regroupement de plusieurs fonctions d'objets nomades, leur évolution et une sécurité équivalente à celle des cartes à micro-processeur. Nous avons tout d'abord défini un nouveau modèle de fonctionnement de l'objet nomade : le modèle de la carte blanche. Dans ce modèle, le porteur a carte blanche pour faire installer sur son objet nomade initialement vierge ou blanc, les applications de son choix. Ces applications peuvent provenir d'émetteurs distincts qui conservent le contrôle de leurs applications respectives. Elles sont indépendantes, comprennent leurs propres traitements et peuvent coopérer dans la carte blanche. Ensuite, la carte blanche est évolutive : des applications peuvent être ajoutées, mises à jour ou supprimées durant son cycle de vie. Ce modèle nécessite un véritable système d'exploitation pour assurer son fonctionnement et sa sécurité. Nous apportons différentes solutions pour l'exécution sécurisée des applications qui tiennent compte de la nature particulière des applications. Nous avons construit un prototype du système d'exploitation pour évaluer les concepts et les mécanismes de sécurité. Enfin, une chaîne de compilation a été développée pour introduire dans la carte blanche, des applications écrites dans un langage évolué.
APA, Harvard, Vancouver, ISO, and other styles
24

Akkar, Mehdi-laurent. "Attaques et méthodes de protections de systèmes cryptographiques embarqués." Versailles-St Quentin en Yvelines, 2004. http://www.theses.fr/2004VERS0014.

Full text
Abstract:
When I started to work on side-channels attacks, these power-analysis and fault-injection attacks were just appearing. Therefore my research work has followed the evolution of all this domain including both attack and countermeasure. This PhD thesis presents both academic work (consumption models, theoretical protections, general scenarios of attacks) and practical work (real implementation, attacks on real cards, model checking) on usual algorithms such as DES, AES and RSA. Most of the results of this thesis have been published in some conferences (Asiacrypt, CHES, FSE, PKC) and patended
En 1998, les attaques par consommation de courant et par injection de fautes commençaient à peine à apparaître. C'est ainsi que j'ai eu la chance de suivre,et de participer parfois, aux innovations qui ont conduit tant à mettre en oeuvre de nouvelles attaques, qu'à élaborer de nouvelles contre-mesures. Ce mémoire de thèse présente mon travail tant d'un point de vue assez théorique (modèle de consommation de la carte, protections théoriques, principes généraux de scénarios d'attaques) que pratique (vérification de la théorie, implémentations sécurisées, attaques réelles) sur les algorithmes usuels tels que le DES, l'AES ou le RSA. La plupart de ces résultats ont été publiés dans plusieurs conférences (Asiacrypt, CHES, FSE, PKC) et brevetés
APA, Harvard, Vancouver, ISO, and other styles
25

Saint-Martin, Olivier. "Etude et réalisation de systèmes intégrés en imagerie numérique : application à l'inspection visuelle automatique de cartes électroniques équipées." Toulouse 3, 1990. http://www.theses.fr/1990TOU30002.

Full text
Abstract:
Le but de ce travail est la realisation d'un systeme d'inspection visuelle automatique de cartes electroniques equipees. L'etude debute par le recensement des besoins du controle de qualite et des contraintes materielles liees a l'implantation de l'appareillage dans une ligne de production industrielle. La description du systeme prototype de developpement presente l'etude et l'integration des modules mecaniques, informatiques et de la chaine d'acquisition d'images. L'analyse des parametres radiometriques des differents elements composant la scene a permis de definir la geometrie et le contenu spectral de trois systemes d'eclairage mettant en valeur les caracteristiques differenciant les objets normaux des objets defectueux. Les methodes d'analyse d'images developpees ont pour but la detection sur les cartes electroniques de trois types de defauts: verification de la presence et de l'orientation des circuits integres avant la phase de soudure; verification de l'implantation de la totalite des composants avant soudure; detection des courts-circuits entre connexions voisines apres la phase de soudure. Le respect d'une duree d'inspection compatible avec le flux de production industrielle a necessite l'evolution de l'architecture informatique et mecanique, et conduit a la realisation d'un systeme industriel de premiere generation brievement decrit et evalue
APA, Harvard, Vancouver, ISO, and other styles
26

Louf, Baptiste. "Cartes de grand genre : de la hiérarchie KP aux limites probabilistes." Thesis, Université de Paris (2019-....), 2020. http://www.theses.fr/2020UNIP7020.

Full text
Abstract:
Cette thèse s’intéresse aux cartes combinatoires, qui sont définies comme des plongements de graphes sur des surfaces, ou de manière équivalente comme des recollements de polygones. Le genre g de la carte est défini comme le nombre d’anses que possède la surface sur laquelle elle est plongée.En plus d’être des objets combinatoires, les cartes peuvent être représentées comme des factorisations de permutations, ce qui en fait également des objets algébriques, qu’on peut notamment étudier grâce à la théorie des représentations du groupe symétrique. En particulier, ces propriétés algébriques des cartes font que leur série génératrice satisfait la hiérarchie KP (et sa généralisation, la hiérarchie 2-Toda). La hiérarchie KP est un ensemble infini d’équations aux dérivées partielles en une infinité de variables. Les équations aux dérivées partielles de la hiérarchie KP se traduisent ensuite en formules de récurence qui permettent d’énumérer les cartes en tout genre.D’autre part, il est intéressant d’étudier les propriétés géométriques des cartes, et en particulier des très grandes cartes aléatoires. De nombreux travaux ont permis d’étudier les propriétés géométriques des cartes planaires, c’est à dire de genre 0. Dans cette thèse, on étudie les cartes de grand genre, c’est à dire dont le genre tend vers l’infini en même temps que la taille de la carte. Ce qui nous intéressera particulièrement est la notion de limite locale, qui décrit la loi du voisinage d’un point particulier (la racine) des grandes cartes aléatoires uniformes.La première partie de cette thèse (Chapitres 1 à 3) est une introduction à toutes les notions nécessaires : les cartes, bien entendu, mais également la hiérarchie KP et les limites locales. Dans un deuxième temps (Chapitres 4 et 5), on cherchera à approfondir la relation entre cartes et hiérarchie KP, soit en expliquant des formules existantes par des constructions combinatoires, soit en découvrant de nouvelles formules. La troisième partie (Chapitres 6 et 7) se concentre sur l’étude des limites locales des cartes de grand genre, en s’aidant notamment de résultats obtenus grâce à la hiérarchie KP. Enfin le manuscrit se conclut par quelques problèmes ouverts (Chapitre 8)
This thesis focuses on combinatorial maps, which are defined as embeddings of graphs on surfaces, or equivalently as gluing of polygons. The genus g of the map is defined as the number of handles of the surface on which it is embedded.In addition to being combinatorial objects, the maps can be represented as factorizations of permutations, which also makes them algebraic objects, which one can study in particular thanks to the representation theory of the symmetric group. In particular, these algebraic properties of maps mean that their generating series satisfies the KP hierarchy (and its generalization, the 2-Toda hierarchy). The KP hierarchy is an infinite set of partial differential equations in an infinity of variables. The partial differential equations of the KP hierarchy are then translated into recurrence formulas which make it possible to enumerate maps of any genus.On the other hand, it is interesting to study the geometric properties of maps, and in particular very large random maps. Many works have focused on the geometrical properties of planar maps, ie of genus 0. In this thesis, we study maps of large genus, that is to say whose genus tends towards infinity at the same time as the size of the map. What will particularly interest us is the notion of local limit, which describes the law of the neighborhood of a particular point (the root) of large uniform random maps.The first part of this thesis (Chapters 1 to 3) is an introduction to all the necessary concepts: maps, of course, but also the KP hierarchy and local limits. In a second part (Chapters 4 and 5), we will seek to deepen the relationship between maps and KP hierarchy, either by explaining existing formulas by combinatorial constructions, or by discovering new formulas. The third part (Chapters 6 and 7) focuses on the study of the local limits of large maps, using in particular the results obtained from the KP hier-archy. Finally the manuscript ends with some open problems (Chapter 8)
APA, Harvard, Vancouver, ISO, and other styles
27

Combier, Camille. "Mesures de similarité pour cartes généralisées." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00995382.

Full text
Abstract:
Une carte généralisée est un modèle topologique permettant de représenter implicitementun ensemble de cellules (sommets, arêtes, faces , volumes, . . .) ainsi que l'ensemblede leurs relations d'incidence et d'adjacence au moyen de brins et d'involutions. Les cartes généralisées sont notamment utilisées pour modéliser des images et objets3D. A ce jour il existe peu d'outils permettant l'analyse et la comparaison de cartes généralisées.Notre objectif est de définir un ensemble d'outils permettant la comparaisonde cartes généralisées.Nous définissons tout d'abord une mesure de similarité basée sur la taille de la partiecommune entre deux cartes généralisées, appelée plus grande sous-carte commune.Nous définissons deux types de sous-cartes, partielles et induites, la sous-carte induitedoit conserver toutes les involutions tandis que la sous-carte partielle autorise certaines involutions à ne pas être conservées. La sous-carte partielle autorise que les involutionsne soient pas toutes conservées en analogie au sous-graphe partiel pour lequelles arêtes peuvent ne pas être toutes présentes. Ensuite nous définissons un ensembled'opérations de modification de brins et de coutures pour les cartes généralisées ainsiqu'une distance d'édition. La distance d'édition est égale au coût minimal engendrépar toutes les successions d'opérations transformant une carte généralisée en une autrecarte généralisée. Cette distance permet la prise en compte d'étiquettes, grâce à l'opérationde substitution. Les étiquettes sont posées sur les brins et permettent d'ajouter del'information aux cartes généralisées. Nous montrons ensuite, que pour certains coûtsnotre distance d'édition peut être calculée directement à partir de la plus grande souscartecommune.Le calcul de la distance d'édition est un problème NP-difficile. Nous proposons unalgorithme glouton permettant de calculer en temps polynomial une approximation denotre distance d'édition de cartes. Nous proposons un ensemble d'heuristiques baséessur des descripteurs du voisinage des brins de la carte généralisée permettant de guiderl'algorithme glouton, et nous évaluons ces heuristiques sur des jeux de test générésaléatoirement, pour lesquels nous connaissons une borne de la distance.Nous proposons des pistes d'utilisation de nos mesures de similarités dans le domainede l'analyse d'image et de maillages. Nous comparons notre distance d'éditionde cartes généralisées avec la distance d'édition de graphes, souvent utilisée en reconnaissancede formes structurelles. Nous définissons également un ensemble d'heuristiquesprenant en compte les étiquettes de cartes généralisées modélisant des images etdes maillages. Nous mettons en évidence l'aspect qualitatif de notre appariement, permettantde mettre en correspondance des zones de l'image et des points du maillages.
APA, Harvard, Vancouver, ISO, and other styles
28

Deville, Damien. "CamilleRT : un système d'exploitation temps réel extensible pour carte à microprocesseur." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/9f245270-7f66-4a80-842b-e1a2e267e31b.

Full text
Abstract:
Le logiciel carte est de plus en plus conçu pour supporter des contraintes temps réel. Par exemple, dans les cartes Java SIM, l'application principale èst chargée de générer une clef cryptographique de session pour chaque unité de communication consommée faute de quoi l'infrastructure GSM rompt la communication. Actuellement, les systèmes d'exploitation pour carte à puce ne gèrent l'aspect temps réel qu'au cas par cas. Ils ne permettent pas aux applications <> de signifier des besoins en termes d'accès au microprocesseur, ceci pour des raisons de sécurité. Nous proposons une architecture logicielle embarquée autorisant le partage de la ressource microprocesseur entre les extensions de l'exo-noyau Camille. Cette architecture permet aux extensions de supporter des tâches temps réel au dessus de l'exo-noyau garantissant la disponibilité du microprocesseur. Nous avons montré les faiblesses des solutions initialement préconisées pour supporter du temps réel dans les exo-noyaux et nous proposons un moyen de faire collaborer les extensions sous la forme d'un partage d'une de leurs politiques d'ordonnancement et d'une mutualisation de leurs accès au microprocesseur. Nous avons mis en avant les propriétés fonctionnelles que nous attendons de ces ordonnanceurs collaboratifs et nous avons proposé une architecture distribuée permettant de charger ét de valider ces propriétés. Cette architecture de partage du microprocesseur a été validée expérimentalement dans CamilleRT.
APA, Harvard, Vancouver, ISO, and other styles
29

Clavier, Christophe. "De la sécurité physique des crypto-systèmes embarqués." Versailles-St Quentin en Yvelines, 2007. http://www.theses.fr/2007VERS0028.

Full text
Abstract:
Dans un monde défiant, l'augmentation du nombre et de la diversité des applications numériques ont rendu nécessaire l'existence d'un objet pratique intégrant les fonctions cryptographiques requises pour les besoins quotidiens de sécurité des transactions, de confidentialité des échanges, d'identification du porteur ou encore d'authentification pour l'accès à un service. Parmi les dispositifs cryptographiques embarqués aptes à proposer ces fonctionnalités, la carte à puce est certainement le plus utilisé de nos jours. Sa portabilité (un porte-feuille peut en contenir une dizaine) et sa capacité à protéger les données et programmes qu'elle contient contre les attaques intrusives, lui confèrent naturellement sa fonction essentielle de ``bunker'' pour le stockage de clés et l'exécution d'algorithmes cryptographiques dans les usages mobiles nécessitant un haut degré de sécurité. Évidemment nécessaire, la conception de schémas cryptographiques mathématiquement robustes, voire prouvés sûrs dans certains modèles, s'est malgré tout révélée insuffisante depuis la publication en 1996 des premières attaques physiques. Exploitant des vulnérabilités liées à la mise en oeuvre concrète des routines de sécurité et à leur implémentation, ces menaces comprennent l'analyse de canaux auxiliaires permettant d'obtenir de l'information sur l'état interne d'un processus, et l'exploitation de fautes provoquées ouvrant la voie à certaines cryptanalyses autrement impossibles. Cette thèse présente une série de travaux de recherche dans le domaine de la sécurité physique des crypto-systèmes embarqués. Deux parties de ce document sont consacrées à la description de certaines attaques et à l'étude de l'efficacité de possibles contre-mesures. Une troisième partie aborde le domaine particulier, et encore très peu exploré, de l'applicabilité des attaques physiques dans le cas où la fonction cryptographique considérée est en grande partie, voire totalement, inconnue de l'adversaire
In a world full of threats, the development of widespread digital applications has led to the need for a practical device containing cryptographic functions that provide the everyday needs for secure transactions, confidentiality of communications, identification of the subject or authentication for access to a particular service. Among the cryptographic embedded devices ensuring these functionalities, smart cards are certainly the most widely used. Their portability (a wallet may easily contain a dozen) and their ability to protect its data and programs against intruders, make it as the ideal ``bunker'' for key storage and the execution of cryptographic functions during mobile usage requiring a high level of security. Whilst the design of mathematically robust (or even proven secure in some models) cryptographic schemes is an obvious requirement, it is apparently insufficient in the light of the first physical attacks that were published in 1996. Taking advantage of weaknesses related to the basic implementation of security routines, these threats include side-channel analysis which obtains information about the internal state of the process, and the exploitation of induced faults allowing certain cryptanalysis to be performed which otherwise would not have been possible. This thesis presents a series of research works covering the physical security of embedded cryptosystems. Two parts of this document are dedicated to the description of some attacks and to a study of the efficiency of conceivable countermeasures. A third part deals with that particular and still mainly unexplored area which considers the applicability of physical attacks when the cryptographic function is, partly or totally, unknown by the adversary
APA, Harvard, Vancouver, ISO, and other styles
30

Blanchet, Jérôme. "Nouveau critère pour analyser la stabilité des distances de voisinage sur les cartes auto-organisatrices." Orléans, 2005. http://www.theses.fr/2005ORLE2075.

Full text
Abstract:
Cette thèse présente un nouveau critère pour analyser la stabilité des distances de voisinage sur les cartes auto-organisatrices (réseaux de Kohonen). Ce critère consiste à calculer, pour chaque paire de données , le coefficient de variation des distances de voisinage, mesurées sur une carte 2-D, après plusieurs apprentissages. Un histogramme des valeurs de toutes les paires de données est réalisé et comparé à celui obtenu avec des cartes non organisées. Le critère représente le niveau d'instabilité de ε% des paires les plus stables et permet de comparer numériquement ces deux histogrammes. Ce critère constitue une innovation par rapport à la méthode qui existe actuellement. Il privilégie les relations locales de voisinage et peut être utilisé pour comparer des cartes de géométries différentes. Les propriétés statistiques des cartes non organisées sont établies et utilisées pour déterminer la valeur théorique de ce critère. Il est utilisé avec différentes bases de données et montre que la géométrie des cartes a une influence sur la stabilité des informations qu'elles contiennent. En outre, les cartes les plus stables ne sont pas forcément celles qui préservent le mieux la topologie des données. Ce nouveau critère montre également que certaines fonctions de distance et de voisinage, qui sont utilisées avec l'algorithme de Kohonen lors de son implémentation matérielle, génèrent une grande instabilité sur les informations portées par les cartes.
APA, Harvard, Vancouver, ISO, and other styles
31

Huet, Thierry. "Généralisation de cartes vectorielles d'occupation des sols : une approche par triangulation coopérative pour la fusion des polygones." Toulouse 1, 1996. http://www.theses.fr/1996TOU10065.

Full text
Abstract:
La généralisation cartographique consiste à transformer la représentation de l'espace géographique de manière à pouvoir restituer l'information spatiale à différents niveaux d'abstraction. Les travaux présentés dans cette thèse traitent plus particulièrement de la généralisation de cartes vectorielles d'occupation des sols. Les travaux recensés dans le cadre de l'état de l'art réalisé dans le premier chapitre montrent certes l'existence de méthodes et d'outils de généralisation, mais uniquement un contexte de données maillées ou de cartes topographiques. En effet, la spécificité de notre problématique réside dans le fait que, sur une carte d'occupation des sols, l'information est présente sur la totalité de la carte tandis qu'une carte topographique possède des zones non renseignées. Les outils de généralisation existants ne sont donc pas adaptés aux cartes d'occupation des sols. Aussi, après avoir présenté les différents modèles nécessaires à la généralisation, nous proposons d'analyser les méthodes et outils existants dans le cadre spécifique de l'occupation des sols. Nous effectuons donc, dans le deuxième chapitre, une proposition méthodologique mettant en œuvre plusieurs opérateurs de généralisation adaptés à notre problématique. Notre démarche s'appuie sur l'utilisation d'une base de données caractéristique de l'occupation des sols, Corine Land Cover, et fait l'objet, en fin de chapitre, d'une validation pratique au travers d'une maquette réalisée avec le logiciel arc/info. Les résultats obtenus sont certes satisfaisants mais, comme toutes les méthodes existantes, notre approche gère insuffisamment le caractère évolutif des données géographiques : son processus est séquentiel et sa mise en œuvre reste lourde ; à chaque mise à jour du jeu de données initial, la donnée généralisée doit être recréée. Pour répondre à cette problématique, nous exposons dans le troisième chapitre, une nouvelle méthode de fusion basée sur une triangulation dont la principale propriété est d'offrir une consistance dans la prise en compte des polygones. Grâce à cette méthode, nous pouvons alors proposer une modélisation par objets spatio-temporels actifs, l'activité des polygones étant décrite à travers une extension du formalisme des réseaux de Pétri. Les modèles complets de ces polygones spatio-temporels actifs sont présentés en fin de chapitre
Map generalization consists in transforming representations of geographic space in such a way as to enable spatial data to be mapped at various levels of abstraction. The work presented in this thesis is specifically concerned with the generalization of land use vector maps. The investigations into the state of-the-art performed in chapter one show that while generalization tools and methods exist, they are only applicable to raster data or topographic maps. The specificity of our investigation resides in the fact that information on a land use map is present throughout the map while a topographic map has blank areas. Existing generalization tools are therefore not applicable to land use vector maps. After presenting various models required for generalization, the author analyzes existing methods and tools from the standpoint of land use. In chapter two, a methodology is proposed implementing several generalization operators adapted to the task. Our method is based on the use of a land use-specific database, Corine Land Cover, and is put to a practical test at the end of the chapter using a model built with arc/info software. While the results obtained are satisfactory, our method - like all existing methods - do not provide a sufficient management power for the changeable nature of geographical data: it uses sequential processes and remains difficult to implement since generalized data must be re-computed whenever the initial data is upgraded. In response to this problem, chapter three presents a new merging method based on triangulation whose main feature is to provide a consistent way of processing polygons. This method allows us to propose a model based on spatio-temporal objects as polygon activity is described by an extension of the Pétri net formalism. Complete models of these active spatio-temporal polygons are presented at the end of the chapter and are implemented in the looping environment
APA, Harvard, Vancouver, ISO, and other styles
32

Calenzo, Patrick. "Développement de nouvelles architectures mémoires non volatiles bas coût et basse consommation." Aix-Marseille 1, 2009. http://www.theses.fr/2009AIX11051.

Full text
Abstract:
Les objectifs de cette thèse sont de concevoir et de développer des mémoires non volatiles à grille flottante qui répondent aux critères de bas coût et basse consommation compatibles avec un procédé CMOS logique. Afin de réaliser cela, un état de l’art a mis en exergue les cellules les plus « performantes » dans cette technologie. Ceci a mis en évidence les qualités et les défauts de chacune d’entre elles et a permis de cibler les points principaux à respecter et servira d’étalon pour développer les cellules mémoires de ce travail. A la suite de cela, une méthodologie de calibration, utilisable pour n’importe quel dispositif à semi-conducteur, a été développée. Cette méthodologie a été mise en pratique sur une cellule EEPROM, qui a servi de base pour la conception des cellules mémoires de ce manuscrit. Ensuite, l’étude d’une cellule mémoire simple poly-silicium double implant a été exposée. Cette cellule a été développée de son concept de fonctionnement jusqu’à sa validation électrique sur silicium. Le procédé de fabrication proposé permet de réaliser une cellule mémoire de type simple poly-silicium dans une technologie CMOS logique. De plus, la consommation de cette cellule s’accorde parfaitement avec les critères de basse consommation. Enfin, cette cellule présente une taille de seulement 1,1 μm² dans une technologie 0,13 μm ce qui en fait la plus petite qu’il soit pour ce type mémoire. Parallèlement à ce travail, une autre cellule simple poly-silicium, qui se décline en deux versions, a été proposée. Ces cellules possèdent la particularité d’être réalisées dans une tranchée d’isolation. Ceci renforce la notion de faible coût car, tout en restant compatible avec un procédé CMOS logique, la surface d’une cellule unitaire peut être réduite. Toutes les briques élémentaires pour concevoir la cellule sont validées électriquement et mettent en évidence des résultats très encouragents en ce qui concerne sa consommation en énergie. Tous les dispositifs présentés lors de ce travail ont révélé un comportement électrique intéressant. Les principales perspectives de ce travail seraient d’améliorer ces deux concepts afin de les industrialiser
The objectives of this thesis are to conceive and to develop non volatile memories with floating gate which are low cost, low voltage consumption and compatible with a CMOS standard logic process. In order to be carried out, a state of the art has put forth the cells which are “high-achieving” in this technology. This has permitted to see the qualities and the defects of the cells and enabled to target the main points which need careful consideration. From this onwards, a calibration methodology, usable for any semi conductor device, has been developed. This methodology was put into practice on an EEPROM cell, which served as the foundations for the development of the memory cells, throughout this paper. Furthermore, a single poly silicon double implant memory cell has been studied. This cell has been developed from its operating concept to its electric validation on silicon. The manufacturing process suggested gave way to a single poly-silicon memory cell in a CMOS logic technology. In addition, the cell consumption is in perfect accordance with the low voltage consumption criteria. Finally, this cell is interesting in regards to its size which is only 1,1 μm² in a technology of 0,13 μm. This makes it the smallest existing cell for this particular type of memory. In parallel to this work, another single poly silicon cell, which exists in two different versions, has been suggested. These cells have the particularity to be created in a shallow trench isolation. This reinforces the idea of low cost because the surface of the unit cell can be reduced but at the same time remains compatible with a CMOS standard logic process. All the basics needed to create this cell have been validated electrically and give way to encouraging energy consumption results. The outlook for this work would be to improve the two developed concepts in order to have them industrialized
APA, Harvard, Vancouver, ISO, and other styles
33

Andronick, Liège June. "Modélisation et vérification formelles de systèmes embarqués dans les cartes à microprocesseur : plate-forme Java Card et système d'exploitation." Paris 11, 2006. http://www.theses.fr/2006PA112085.

Full text
Abstract:
Les travaux présentés dans ce mémoire ont pour objectif de renforcer le niveau de sûreté et de sécurité des systèmes embarqués dans les cartes à puce grâce à l'utilisation des Méthodes Formelles. D'une part nous présentons la vérification formelle de l'isolation des données de différentes applications chargées sur une même carte à puce, et plus précisément la preuve formelle, dans le système de preuve Coq, que le contrôle dynamique d'accès aux données implémenté par Java Card assure les propriétés de confidentialité et d'intégrité. D'autre part, nous nous sommes intéressés à la correction et à l'innocuité du code source bas niveau d'un système d'exploitation embarqué. Cette étude est illustrée par un module de gestion de mémoire Flash par journalisation, assurant la cohérence des données de la mémoire en cas d'arrachage de la carte du terminal. La vérification de propriétés fonctionnelles et locales a été développée à l'aide de l'outil Caduceus. Cet outil n'acceptant pas certaines constructions de bas niveau du langage C, telles que les unions et les casts, nous proposons des solutions pour la formalisation de ces constructions. Nous proposons également une extension de Caduceus permettant de spécifier et de vérifier le comportement d'une fonction en cas d'interruption soudaine de son exécution. Puis nous introduisons une méthodologie de vérification de propriétés globales de haut niveau sur un modèle formellement lié au code source. Plus précisément, nous décrivons l'extraction automatique d'un système de transitions formel, à partir d'annotations vérifiées par le code source. Ce système de transitions peut alors être plongé dans une logique d'ordre supérieur
The work presented in this thesis aims at strengthening the security and safety level of smart card embedded systems, with the use of Formal Methods. On one hand, we present the formal verification of the isolation of the data belonging to different applets loaded on the same card. More precisely, we describe the formal proof, in the Coq proof system, that the run-time access control, performed by the Java Card platform, ensures data confidentiality and integrity. On the other hand, we study the correctness and the safety of low level source code of an embedded operating system. Such source code is illustrated by a case study of a Flash memory management module, using a journalling mechanism and ensuring the memory consistency in the case of a card tear. The verification of functional and local properties has been developed using the Caduceus program verification tool. Since this tool does not support some low level constructions of the C language, such as the unions and the casts, we propose an analysis and some solutions for the formalisation of such constructions. We also propose an extension of Caduceus that allows to specify and verify the behaviour of a function in the case of sudden interruption of its execution. Then, we introduce a methodology for the verification of high level and global properties, which is meant for the expression and proof of this kind of properties on a model formally linked to the source code. More precisely, we describe an automatic extraction of a transition system from the annotations that are verified by the source code. This transition system can then be translated in a high order logic
APA, Harvard, Vancouver, ISO, and other styles
34

Dandjinou, Toundé Mesmin. "Une architecture d'administration de cartes à puce, similaire à OTA, et dédiée aux réseaux sans fil IP." Paris, ENST, 2006. http://www.theses.fr/2006ENST0052.

Full text
Abstract:
Les réseaux sans fil IP envahissent nos lieux de vie et le défaut de sécurité d'accès est un sérieux frein au développement de nouveaux services en leur sein. Dans ce travail nous proposons l'emploi de la carte à puce Java comme module de sécurité pour l'accès à ces réseaux, comme le sont les puces pour la téléphonie mobile GSM. Pour y parvenir malgré les limitations de ces cartes en matière de puissance de traitement et de capacité de stockage, on propose un nouveau protocole du nom de EAP-SSC (EAP Secured Smartcard Channel). Il assure une authentification mutuelle fondée sur la cryptographie à clés symétriques ou asymétriques. La diversité des autorités administrant les réseaux sans fil IP commande la prise en compte d'une variété de politiques de sécurité applicables. Aussi, proposons-nous une plate-forme dénommée OpenEAPSmartcard pour toute carte Java du marché. Son architecture est ouverte et facile à adapter aux scénarii d'authentification des développeurs. La sécurité des matériaux cryptographiques stockés sur les serveurs n'est pas garantie, à cause des attaques profitant des failles et des vulnérabilités des systèmes d'exploitation ; celle des bornes d'accès à la portée des utilisateurs l'est moins encore. Notre solution est d'implanter dans les cartes Java des serveurs EAP dénommés micro-serveurs d'authentification. Le déploiement de ces micro-serveurs pose le problème de leur mise à jour dans le temps et dans l'espace. Une architecture logicielle dénommée TEAPM (Trusted EAP Module) est proposée. En son cœur sont les protocoles EAP et EAP-TLS surmontés de XML et HTTP pour faciliter l'administration distante et sécurisée "Over The Air" des cartes à puce Java
IP wireless networks are invading most of our life areas. But the lack of secured access of these networks is a serious brake for the development of new services in them. In our work, we propose to use smart cards as security modules, as it is the case in the mobile radio telephony networks GSM. For this purpose in spite of smart cards limitations of their computational and storage capabilities, we suggest a new protocol named EAP-SSC (EAP Secured Smartcard Channel). This protocol is dedicated to the mutual authentication using both symmetrical and asymmetrical cryptographic keys contexts. As IP wireless networks are operated by various administrative authorities, it is necessary to anticipate the consideration of the diversity of the underlined security politics. So, we propose a platform named OpenEAPSmartcard intended to be set up in every Java card of the market place. This platform is opened and easy for being convenient for new authentication scenarios chosen by the computer programmers. Security of cryptographic materials stored on the servers is not safeguarded, because of the operating systems flaws and vulnerabilities; access points closed to the users are less sheltered from attacks. For that reason we suggest to create authentication micro-servers that correspond to EAP servers included in the Java smart cards. The deployment of those micro-servers on a large scale will cause the problem of keeping them up to date. We propose a software architecture called TEAPM (Trusted EAP Module) which heart is formed by EAP and EAP-TLS surrounded by XML and HTTP protocols. This architecture allows the "On The Air" secured administration of the micro-servers
APA, Harvard, Vancouver, ISO, and other styles
35

Chesneau, Élisabeth. "Modèle d'amélioration automatique des contrastes de couleur en cartographie : application aux cartes de risques." Université de Marne-la-Vallée, 2006. http://www.theses.fr/2006MARN0294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Grimm, Martial. "Proposition d'une nouvelle méthode de transformation de signaux video rvb/hsi : application aux systèmes de vision couleur temps réel." Nancy 1, 1994. http://docnum.univ-lorraine.fr/public/SCD_T_1994_0322_GRIMM.pdf.

Full text
Abstract:
L'espace colorimétrique HSI, offre une multitude d'avantages en analyse et traitement d'images couleurs (attributs h et s) insensibles aux variations d'éclairement de la scène, représentation des couleurs analogue à celle de l'il, segmentation chromatique robuste et bien adaptée aux images réelles. Cependant les cameras et autres capteurs d'images délivrent des signaux standards RVB et la transformation RVB HSI à la cadence vidéo est encore mal maitrisée (transfert d'espace incomplet, pertes de signification des attributs h et s en certaines zones, aberrations dues à la discrétisation des signaux amont). Pour tenter de résoudre certains de ces problèmes, nous avons choisi une méthode de transformation non conventionnelle qui aboutit à l'élaboration d'une architecture analogique-numérique. Toutes les fonctions hormis les relations trigonométriques sont réalisées en analogique. La numérisation n'apparait qu'en fin de traitement. Les améliorations obtenues par rapport aux méthodes entièrement numériques sont d'une part, une augmentation de la zone chromatique de l'espace HSI ; d'autre part, la transition chromatique/achromatique présente une meilleure continuité ce qui permet des différenciations de couleur acceptables même à faible niveau. Enfin, un format de 3x8 bits offre un nombre de couleur discernable analogue à celui du cube RVB.
APA, Harvard, Vancouver, ISO, and other styles
37

Regnauld, Nicolas. "Généralisation du bâti : structure spatiale de type graphe et représentation cartographique." Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11022.

Full text
Abstract:
La base de données topographique de l'Institut géographique national (BDTopo) est actuellement utilisée à divers fins dont la production des cartes au 1:25000e. Une extension possible serait de dériver aussi des cartes à de plus petites échelles (notamment au 1:50000e ) et ce de manière automatique. Le principal obstacle à cette automatisation est la phase de généralisation cartographique, qui doit extraire de la base l'information pertinente pour la nouvelle échelle. D'une manière plus générale, cette fonctionalité importante des systèmes d'information géographiques, n'est présente à l'heure actuelle que sous la forme d'outils spécifiques proposés à l'utilisateur du système pour traiter des cas précis. On peut faire l'analogie par exemple avec la génération automatique de résumé de texte : la généralisation cartographique est à la carte ce que le résumé de texte est au texte, il ne s'agit pas de jouer sur la taille des caractères mais de supprimer ce qui n'est pas essentiel, de regrouper et réduire les développements tout en conservant leur sens, parfois de conserver ce qui est exceptionnel. Nous avons limité le contexte de nos recherches au cas du bâti, avec pour objectif d'identifier les liens qui existent entre les données initiales et leurs représentations graphiques à une échelle plus petite. Le but est ensuite de définir un outil automatique pour associer à un lot de données représentant une zone de bâti dense une représentation graphique adaptée à une échelle donnée. La première partie est consacrée à la modélisation de la perception visuelle des groupements de bâtiments sur une carte. Le but est d'extraire les structures qui sont visuellement repérables. On utilise pour celà un graphe de plus proche voisinage sur les bâtiments, sur lequel on fait des mesures selon des critères issus de la théorie de Gestalt (perception de groupes). Le résultat de cette analyse fournit l'information géographique associée à chacune des strutures, c'est à dire leur caractère : taille moyenne des bâtiments, forme du groupe, densité, ces informations sont indépendants de l'échelle. A partir de ces structures, nous définissons une méthode permettant de leur associer d'autres représentations à différentes échelles. Nous avons enfin défini des méthodes d'évaluation du résultat permettant d'assurer la bonne intégration du processus dans un système de généralisation automatique. Les éventuelles dégradations constatées sont évalués et stockées au niveau des objets de la classe structure. La modélisation des structures et leur stockage permettent au processus global lorsqu'il effectue des modifications individuelles sur un bâtiment (déplacement), de déterminer à quelle structure il appartient et de vérifier que les modifications n'ont pas dégradé la perceptibilité de la structure. Si une dégradation est survenue, alors un traitement local au groupe peut être entrepris. La structure peut donc servir d'index spatial intelligent pour accéder aux bâtiments.
APA, Harvard, Vancouver, ISO, and other styles
38

Al, Assaad Hiba. "Apport des modèles numériques d'élévation pour l'enrichissement des cartes de navigation par fusion multi-capteurs." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0558.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur l'étude d'une méthode de fusion multi-capteurs pour l'estimation de la localisation 3-D et l'attitude d'un véhicule terrestre. Nous avons développé et validé, en situation réelle, une méthode de fusion centralisée basée sur une modélisation d'état à partir de mesures GNSS/INS provenant du capteur ublox EVK-M8U. Le système de mesure est également alimenté par des données cartographiques routières OSM et d'élévation issues des modèles numériques ASTER/World 30. Certaines mesures sont modélisées par des équations présentant de fortes non-linéarités que nous avons choisies de traiter par filtrage particulaire. La prise en compte des données cartographiques est faite de manière statistique à partir de la métrique de Mahalanobis. En outre, nous avons développé une nouvelle méthode de gestion des modèles numériques d'élévation (MNE), désignée par la méthode de "Fenêtre Glissante Adjacente" (FGA) afin de limiter l'impact des artefacts présents dans ces données. Durant l'étape de gestion du MNE, nous avons mis en oeuvre des approches géométriques (TIN, FGA) qui permettent de rendre plus robuste la correction d'altitude et favorise un accroissement des performances en estimation du paramètre d'inclinaison des segments de la carte routière numérique
Te work presented in this thesis concerns the study of a multi-sensor fusion method for the estimation of 3-D localization and the attitude of a land vehicle. We have developed and validated, in a real situation, a centralized fusion method based on state modeling from GNSS/INS measurements delivered by the ublox EVK-M8U sensor. The measurement system is also completed by OSM digital road maps and elevation data from the ASTER/World 30 digital models. Some measurements are modeled by equations with strong non-linearities which we have chosen to process by particle filtering. The cartographic data are taken into account statistically from the metric of Mahalanobis. In addition, we have developed a new method for managing digital elevation models (DEM), known as the "Fenêtre Glissante Adjacente" (FGA) method, in order to limit the impact of the artifacts that are found in this data. During the DEM management step, we implemented geometric approaches (TIN, FGA) which make the altitude correction more robust and favors an increase in performance in estimating the inclination parameter of the segments of the digital road maps
APA, Harvard, Vancouver, ISO, and other styles
39

Santucci, Jean-François. "Contribution à l'élaboration de THESEE, un système à base de connaissance d'aide à la génération de séquences de test pour les cartes digitales." Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30016.

Full text
Abstract:
Pour réduire le coût d'une carte numérique soumise à un générateur automatique de séquence de test, la solution consiste à procéder par étapes: 1) découpage fonctionnel de la carte en sous ensembles; 2) génération automatique de séquences de test locales à ces sous ensembles; 3) intégration des séquences de test locales en procédures de test globales à la carte. Thesee a été élaborée afin d’assister un expert dans ces taches de découpage.
APA, Harvard, Vancouver, ISO, and other styles
40

Soulat, Laurent. "Définition, analyse et optimisation d'un nouveau concept de traitement de carter au moyen d'outils numériques : application aux turbomachines basse vitesse." Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00564495.

Full text
Abstract:
Pour les turbomachines, les écoulements de jeu entre parties mobiles et fixes peuvent être une source non négligeable de dégradation des performances. Afin de contrer ces écoulements, on fait souvent appel à un traitement de carter. Cette étude est axée sur la définition, l'analyse et l'optimisation d'un nouveau concept de traitement de carter applicable aux turbomachines basse vitesse. Plusieurs outils numériques sont nécessaires pour mener à bien cette étude. Pour la simulation numérique, il convient de disposer de schémas spatiaux adaptés aux maillages non-uniformes, lesquels sont développés ici. L'analyse pratique du traitement de carter fait intervenir une technique de dérivation d'ordre élevé du champ aérodynamique, permettant ensuite une reconstruction rapide des différentes géométries et des champs aérodynamiques associés. Cette technique de dérivation est couplée avec un algorithme génétique afin d'optimiser le traitement de carter. Un outil d'analyse et de visualisation du front de Pareto est alors employé. Le nouveau traitement de carter proposé est un rainurage hélicoïdal du carter. Ce dispositif est utilisé pour réduire le débit de jeu et la giration de l'écoulement de jeu dans le cas de turbomachines présentant une virole. Le traitement de carter est modélisé afin de valider le concept même du rainurage. L'analyse des performances montre une amélioration par rapport à un jeu standard. L'étude du champ aérodynamique associé aux rainures fait ressortir des structures tourbillonnaires complexes et couplées. Une étude paramétrique permet de caractériser finement le comportement du nouveau traitement de carter relativement aux paramètres géométriques définissant la forme des rainures. On valide l'ensemble des variations obtenues avec la méthode de dérivation d'ordre élevé. Le rainurage est alors optimisé en utilisant la base de donnée constituée par ces variations. L'analyse du front de Pareto permet de choisir une configuration optimale de traitement de carter. Cette solution est appliquée à un ventilateur de refroidissement. L'écoulement et les performances de l'ensemble [rotor+traitement de carter] sont étudiés précisément. Dans cette configuration, on améliore remarquablement les caractéristiques de l'écoulement de jeu.
APA, Harvard, Vancouver, ISO, and other styles
41

Grabski, Krystyna. "Les cartes sensorimotrices de la parole : Corrélats neurocognitifs et couplage fonctionnel des systèmes de perception et de production des voyelles du Français." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00753249.

Full text
Abstract:
LES CARTES SENSORIMOTRICES DE LA PAROLE : Corrélats neurocognitifs et couplage fonctionnel des systèmes de perception et de production des voyelles du Français --- La parole est construite sur un jeu de correspondances entre représentations sensorielles et articulatoires, notamment lors de l'acquisition du langage les premières années de vie. Par l'utilisation de l'imagerie par résonance magnétique fonctionelle, l'objectif premier de nos travaux était de déterminer, chez l'adulte, un possible couplage fonctionnel des systèmes de perception et de production des voyelles du Français, considérées comme unités élémentaires de la parole. En parallèle, nos travaux devaient permettre de clarifier les structures cérébrales liées au contrôle moteur orofacial de mouvements simples supralaryngés et, à l'aide de la technique de stimulation magnétique transcrânienne, de déterminer une possible implication causale des régions sensorielles et motrices lors de la perception de la parole. Nos travaux ont permis de souligner l'implication des régions sensorielles et motrices aussi bien lors de la réalisation des gestes orofaciaux que lors de la production et de la perception des voyelles. La mise en évidence d'un effet d'adaptation pour ces régions motrices, auditives et somatosensorielles lors de l'écoute ou de la réalisation répétée d'une même voyelle ou d'un même geste suggère de plus l'existence de boucles sensorimotrices communes, impliquées dans des mécanismes adaptatifs de contrôle en ligne des gestes de parole perçus et produits. Enfin, nous avons pu démontrer le rôle causal et fonctionnel des régions sensorielles et motrices de la voie dorsale lors de la catégorisation de sons de parole. Pris ensemble, nos travaux soulignent la nature distribuée sensorimotrice des représentations cérébrales des unités de parole. Mots clés: perception et production de la parole, voyelles, contrôle moteur orofacial, interactions sensorimotrices, représentations et cartes neurocognitives, IRMf, TMS.
APA, Harvard, Vancouver, ISO, and other styles
42

Sassatelli, Gilles. "Architectures reconfigurables dynamiquement pour les systèmes sur puce." Montpellier 2, 2002. http://www.theses.fr/2002MON20052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Caquard, Sébastien. "Des cartes multimédias dans le débat public : pour une nouvelle conception de la cartographie appliquée à la gestion de l'eau." Saint-Etienne, 2001. http://www.theses.fr/2001STET2072.

Full text
Abstract:
L'approche concertée qui prévaut dans la gestion de l'eau a engendré l'apparition de nouveaux interlocuteurs : les acteurs locaux. Cette thèse s'intéresse à la manière dont la cartographie, sous l'influence du multimédia, peut favoriser l'intégration de ces acteurs dans le débat public. Dans une première partie, le guide cartographique des Schémas d'Aménagement et de Gestion des Eaux (SAGE) est analysé. Cette analyse fait apparaître un décalage entre la volonté affichée d'une gestion concertée et la place qui lui est effectivement réservée dans le discours cartographique. La carte y est principalement utilisée à des fins de gestion centralisée. Dans une deuxième partie, les besoins informationnels des acteurs locaux sont étudiés à travers le cas de la qualité des cours d'eau sur le bassin versant du Lignon-du-Velay (Haute-Loire). Cette étude met en évidence l'inadaptation de l'information proposée aux besoins des acteurs locaux. De plus, la carte apparaît comme un support ambigu, perçu comme un moyen privilégié d'accéder à l'information spatialisée, mais dont l'utilisation génère contresens et réticences. En fait, la carte n'a jamais été conçue pour favoriser la participation publique. C'est ce qui ressort de la troisième partie de cette thèse. La plupart des évolutions technologiques récentes, tels que les Systèmes d'Information Géographique (SIG), tendent même à renforcer sa fonction d'outil de gestion centralisée. Pourtant, le multimédia ouvre des perspectives de changement. Certes, le seul fait d'ajouter des éléments dynamiques (animés ou interactifs) sur des cartes statiques n'est pas suffisant pour modifier foncièrement l'usage de la carte et sa compréhension. Mais cette modification technologique doit être envisagée comme une réelle opportunité de repenser fondamentalement la discipline cartographique, pour faire en sorte qu'elle soit véritablement en phase avec ce nouveau type de demande sociale qu'est le débat public.
APA, Harvard, Vancouver, ISO, and other styles
44

Cordry, Julien. "La mesure de performance dans les cartes à puce." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2009. http://tel.archives-ouvertes.fr/tel-00555926.

Full text
Abstract:
La mesure de performance est utilisée dans tous les systèmes informatiques pour garantir la meilleure performance pour le plus faible coût possible. L'établissement d'outils de mesures et de métriques a permis d'établir des bases de comparaison entre ordinateurs. Bien que le monde de la carte à puce ne fasse pas exception, les questions de sécurité occupent le devant de la scène pour celles-ci. Les efforts allant vers une plus grande ouverture des tests et de la mesure de performance restent discrets. Les travaux présentés ici ont pour objectif de proposer une méthode de mesure de la performance dans les plates-formes Java Card qui occupent une part considérable du marché de la carte à puce dans le monde d'aujourd'hui. Nous étudions en détails les efforts fournis par d'autres auteurs sur le sujet de la mesure de performance et en particulier la mesure de performance sur les cartes à puce. Un grand nombre de ces travaux restent embryonnaires ou ignorent certains aspects des mesures. Un des principaux défauts de ces travaux est le manque de rapport entre les mesures effectuées et les applications généralement utilisées dans les cartes à puce. Les cartes à puce ont par ailleurs des besoins importants en termes de sécurité. Ces besoins rendent les cartes difficiles à analyser. L'approche logique consiste à considérer les cartes à puce comme des boites noires. Après l'introduction de méthodologies de mesures de performance pour les cartes à puce, nous choisirons les outils et les caractéristiques des tests que nous voulons faire subir aux cartes, et nous analyserons la confiance à accorder aux données ainsi récoltées. Enfin une application originale des cartes à puce est proposée et permet de valider certains résultats obtenus.
APA, Harvard, Vancouver, ISO, and other styles
45

Arthus, Isabelle. "Détermination des besoins en informations : proposition d'une méthodologie utilisant les cartes cognitives pour aider les managers à déterminer leurs informations décisionnelles." Grenoble 2, 1997. http://www.theses.fr/1997GRE21010.

Full text
Abstract:
Un manager a besoin d'informations susceptibles d'orienter ses actions et ses prises de decisions. Elles doivent aussi lui permettre de s'assurer qu'il se dirige bien vers les objectifs fixes. La determination de ces informations est delicate car elle depend de la vision qu'a le manager de sa tache, et de la facon dont il pense que les elements s'articulent entre eux. Cette recherche a pour objet de proposer une methodologie d'aide a la determination de ces informations. Elle associe une approche par les cartes cognitives (soda) a une approche de type facteurs-cles de succes. La carte cognitive est construite en groupe mais la determination des informations est individuelle. Cela permet d'apprehender l'ensemble des informations susceptibles d'etre utilisees. La validation de la methodologie proposee est realisee par une experimentation de type laboratoire lors d'une simulation de gestion. Celle-ci a permis de montrer que l'utilisation d'une telle methodologie ameliorait les connaissances des managers sur leur environnement et ainsi permettait la determination d'informations en prise directe avec les decisions. Elle a montre aussi l'existence d'une communication efficace entre le producteur et le consommateur de l'information et donc la definition de l'information. Enfin, ce type de methodologie favorise la determination des informations transversales
A manager needs informations to make decisions and actions. These informations should help him to reach his objectives. They are difficult to determine. Because they depend on the cognitive style of the manager and the vision he has of his task. This research proposes a method to guide the data choice. It combines cognitive mapping (soda) with a critical success factors approach. The cognitive map is a group map but the data choice is individual. This process allows the managers to determine the set of available informations. The methodology has been tested through a management simultation by a laboratory experimentation. This test shows that the use of the method increases the managers environment knowledge and it helps them to choose decision-oriented informations. It also shows the existence of an efficient communication between the producer and the consumer of informations and then the definition of information. End last, this sort of methodology seems to be indicated to determine the cross-functional informations
APA, Harvard, Vancouver, ISO, and other styles
46

Saleh, Hayder. "Une architecture novatrice de sécurité à base de carte à puce Internet." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERSA009.

Full text
Abstract:
Le protocole Smart TP, introduit dans ce mémoire, propose une nouvelle architecture de communication d'une carte à puce Internet permettant à la carte d'agir comme un vrai noeud d'Internet. Ainsi, cette carte pourra participer aux protocoles d'Internet les plus répandus de manière plus active et indépendamment du terminal hôte. La sécurité sur Internet est une des préoccupations majeures de notre société, mettant en action différents aspects, notamment économiques et technologiques. Le déploiement de la carte à puce en tant que dispositif hautement protégé au service des protocoles de sécutité sur Internet constitue le coeur du sujet de cette thèse. Les défis technologiques révélés par ce déploiement ont été étudiés et évalués à travers cette recherche. Une implémentation du protocole proposé a été réalisée pour loger un serveur WEB conforme aux normes Internet dans une carte à puce Java. Ceci a permis d'étudier les problèmes de performance et de faisabilité, ainsi que de découvrir les possibilités d'amélioration de ce protocole (SmartTP). Une démonstration à grande échelle a été ensuite conduite pour explorer les débouchés industriels de cette technologie. Une analyse approfondie a été faite sur l'implication d'une carte à puce dans le protocole SSL. Ce dernier, est pris comme un exemple pour extrapoler les points forts et les points faibles de la carte dans un environnement Internet. Les problèmes issus de l'exemple SSL et les recommandations apportées sont largement valables pour les autres protocoles et constituent les fruits de cette recherche.
APA, Harvard, Vancouver, ISO, and other styles
47

Eluard, Marc. "Analyse de sécurité pour la certification d'applications java card." Rennes 1, 2001. http://www.theses.fr/2001REN10079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Paradinas, Pierre. "La Biocarte : intégration d'une carte à microprocesseur dans un réseau professionnel santé." Lille 1, 1988. http://www.theses.fr/1988LIL10100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Sauveron, Damien. "Etude et réalisation d'un environnement d'expérimentation et de modélisation pour la technologie Java Card : application à la sécurité." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12930.

Full text
Abstract:
En s'appuyant sur une collaboration menée entre le LaBRI et SERMA Technologies sur la sécurité des Java Cards, cette thèse a pour objectif d'étudier les nouvelles problématiques de sécurité liées à l'apparition de la technologie Java Card. Elle a donné lieu au développement d'un émulateur Java Card capable de simuler des attaques au niveau matériel et logiciel. Elle a également mis en évidence un certain nombre de problèmes dans les spécifications Java Card et des vulnérabilités potentielles dans le cadre de la multi-application sur cartes à puce ouvertes. Par ailleurs, les travaux de cette thèse ont permis de proposer des solutions visant à protéger des codes mobiles pour faire du calcul distribué grâce à l'utilisation de Java Cards. Une application directe de ces travaux permettra de sécuriser le calcul sur la grille.
APA, Harvard, Vancouver, ISO, and other styles
50

Guidez, Ludovic. "Conception de cartes de contrôle assistée par ordinateur et calculs de capabilités appliqués aux processus non gaussiens : application à la production d'embrayages." Compiègne, 1997. http://www.theses.fr/1997COMP1068.

Full text
Abstract:
La MSP (Maîtrise Statistique des Processus), fournit à l'opérateur une information immédiate et objective sur la performance du procédé qu'il pilote. L'opérateur peut alors agir rapidement sur son procédé pour éviter qu'une non conformité apparaisse. C'est l'un des objectifs majeurs recherché par les politiques qualité des organisations industrielles actuelles. Nos recherches ont contribué chez Valeo Embrayages à Amiens à modifier la philosophie MSP de Shewhart [She, 1932] et de Ford [For, 1991] aux exigences des processus de fabrication d'embrayages. Trois domaines ont été améliorés : I/ Une assistance informatique et visuelle a été mise en place pour proposer à l'opérateur des solutions correctives adaptées aux anomalies détectées par les cartes de contrôle. II/ Les nouvelles cartes de contrôle de type Shewhart ont été mises en place sur des processus série. Ces cartes tiennent compte des tolérances pour calculer les limites de contrôle. Les risques statistiques α et β sont choisis. La taille d'échantillon n est calculée. Elles sont appropriées pour mettre sous contrôle les procédés avec usure progressive des outils. Un outil informatique d'aide a la décision pour concevoir des cartes de contrôle de type shewhart a été développé. L'apport de cet outil présente deux avantages majeurs. D'une part le développement de ce système permet l'élaboration d'un mode de traduction des objectifs de l'industriel en caractéristiques statistiques d'une carte de contrôle. D'autre part, l'outil peut être utilisé par des non spécialistes de la MSP. III/ Dans l'industrie automobile, les indicateurs de capabilité classiques ont une importance contractuelle (client/fournisseur) et décisionnelle majeure. Suite à l'article de Günter [Gun, 89] dénonçant l'impact de la non normalité sur les résultats de capabilité, nous avons défini des formules de calcul adaptées aux processus non gaussiens. Nous proposons des solutions pour calculer des capabilités avec des lois unimodales dissymétriques ou des lois multimodales.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography