To see the other types of publications on this topic, follow the link: Technologie des Ordinateurs.

Dissertations / Theses on the topic 'Technologie des Ordinateurs'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Technologie des Ordinateurs.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bauer, Roger. "Conception, realisation et test d'une architecture monolithique de conditionnement et de traitement de l'information delivree par un detecteur silicium a tres haute resolution spatiale. Application a la micro-imagerie beta." Université Louis Pasteur (Strasbourg) (1971-2008), 1997. http://www.theses.fr/1997STR13054.

Full text
Abstract:
Ce travail de these s'inscrit dans un programme de recherche qui explore la possibilite de substituer aux emulsions radiosensibles, un dispositif d'imagerie electronique beta. Ce prototype de premiere generation est compose d'un capteur silicium electronique a haute resolution spatiale, d'un pas interpistes de 50 microns, associe a une architecture electronique de lecture, appelee beta32. C'est la conception, la realisation et le test de cette architecture electronique, qui constitue l'objet du present travail. Le circuit beta32 est realise en technologie integree cmos - vlsi 1. 2 microns. Son architecture analogique comporte 32 voies de conditionnement du signal et deux amplificateurs de sortie en tension. Chaque voie est composee d'un preamplificateur de charge, d'un filtre actif cr-rc, d'un filtre passe haut, d'un comparateur, et d'un suiveur. L'architecture numerique du circuit beta32 comprend egalement les cellules de controle et commande. Le dispositif complet est auto-declenchable et se caracterise par un tres faible bruit, primordial pour l'imagerie beta en #3#5s. La surface active de detection est unidimensionnelle et a une largeur de 1,6mm. Le dispositif d'imagerie electronique de premiere generation, compare aux emulsions radiosensibles, a permis de confirmer qu'un imageur electronique apporte une tres nette diminution du temps d'exposition, pour une resolution spatiale comparable (<10 microns). Ce premier prototype a egalement permis de definir les caracteristiques d'un circuit electronique a 128 voies, qui associe a un capteur bidimensionnel constituerait l'imageur electronique bidimensionnel de seconde generation
APA, Harvard, Vancouver, ISO, and other styles
2

Dromby, Frédéric. "L'inertie de la firme dominante face a l'innovation de produit : une explication par un phenomene d'information trompeuse en provenance du marche. l'exemple des logiciels d'application pour micro-ordinateurs." Jouy-en Josas, HEC, 1999. http://www.theses.fr/1999EHEC0061.

Full text
Abstract:
Si l'innovation est devenue une source determinante d'avantage concurrentiel, elle l'est dans la mesure ou, en dehors de la firme qui innove, les concurrents manifestent souvent une inertie face a l'innovation qui remet en cause leur position sur le marche. Les causes de ce retard de reaction sont multiples, et une revue de la litterature sur le sujet met notamment en evidence les lacunes du savoir actuel sur les causes environnementales de l'inertie des firmes face a l'innovation. Notre recherche porte sur l'elucidation du phenomene d'inertie d'une firme face a l'innovation de produit, cause par une information trompeuse en provenance de l'environnement et empechant cette firme de contrer rapidement l'offensive d'un concurrent qui introduit le produit innovant sur le marche. Une etude historique effectuee sur l'industrie des logiciels applicatifs pour micro, ordinateurs de 1977 a 1997 montre le caractere systematique de l'inertie des firmes leaders de marche a un moment donne face a un produit innovant, ce qui aboutit a des changements repetes de leadership jusqu'a la domination actuelle de microsoft. Deux etudes de cas portant sur deux firmes editrices de logiciels, lotus et ashton-tate, permettent de modeliser la sequence inertielle suivie par ces deux entreprises jusqu'a la perte de leur leadership de marche et leur rachat. Deux series d'hypotheses derivees de ce modele sont alors testees selon un protocole experimental<br>The dissertation is divided into three parts. In part i, we review the literature about corporate inertia, which appears to be a cornerstone of an emerging strategic theory of the firm. Three different types of inertia are identified: organizational, competitive and technological inertia. We identify and articulate the many causes of inertia in a 5*2 matrix which thrives on previous but partial contributions on the causes of organizational and competitive inertia. We then propose to study inertial phenomena in an industry where they are frequent. We choose to study the microcomputer software industry, which seems to highly influenced by technological intertia of leading firms. In part ii, we use an inductive and historical approach to describe the evolution of microcomputer software from an inertial point of view. Particular attention is devoted to methodological issues. To establish solid construct validity, three different classes of data were used in this study: archival documentation, a questionnaire and interviews. The study covers the whole history of microcomputer sofware, from its humble origins in the early seventies to the recent advent of what we call " distributed microcomputing ". The most interesting results concern microcomputer application software. Three forces appear to have shaped competition in this industry: technological innovation at a considerable pace, standardization, and technological inertia of leading firms. The combination of these three forces leads to the identification of four product-generations with systematic changes in market leadership, resulting in the present domination of the microsoft corporation. Concluding remarks are made about some possible explanations of such a phenomenon, and the significance of 'first-mover advantages' in information technology (it) industries. In part iii, we use a game-theoretic approach based on information incompleteness to explain why in industries with sudden and radical changes, leading competitors have difficulties to understand the impact of an innovative technology, and thus often loose their technological and market edge. The game is designed to reflect the conditions in the microcomputer application software industry, where changes in market leadership have been the rule each time a new product generation, based on a new design, has appeared. Three propositions are made concerning
APA, Harvard, Vancouver, ISO, and other styles
3

Fernandez, Conception. "Modélisation des systèmes d'exploitation par HBDS." Paris 6, 1988. http://www.theses.fr/1988PA066235.

Full text
Abstract:
Modélisation générale des systèmes d'exploitation en utilisant la méthode HBDS (hypergraph based data structure) basée sur les types abstraits de données et s'appuyant sur une représentation graphique rigoureuse. Les concepts HBDS permettent la représentation des structures des données du système, alors que le fonctionnement de son noyau est simulé par des algorithmes écrits en exel.
APA, Harvard, Vancouver, ISO, and other styles
4

Alhalabi, Rana. "Conception innovante de circuits logiques et mémoires en technologie CMOS/Magnétique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT103.

Full text
Abstract:
Après de nombreuses études au cours des dernières décennies, les technologies émergentes de mémoires non volatiles décollent enfin dans le marché des semi-conducteurs. Elles ont comme objectif principal de prendre le relais des mémoires flash et DRAM qui touchent à leurs limites en termes de densité, de miniaturisation, de consommation ou d'amélioration de la vitesse. Parmi les technologies émergentes, la mémoire MRAM passe de simple « candidat potentiel » il y a quelques années à des mémoires fabriquées par de grandes industries, aujourd’hui disponibles sur le marché, suscitant un fort intérêt général dans le monde industriel de la microélectronique. Ses atouts permettent d'intégrer cette mémoire dans des flots de conception full custom et numérique afin de pouvoir améliorer certaines performances soit au niveau cellule élémentaire soit au niveau architecture. C'est pourquoi nous proposons dans une première partie la conception de circuits hybrides CMOS/magnétique de type LUT (Look Up Table) en technologie STT-MRAM (Spin Transfer Torque) ayant pour but de réaliser un démonstrateur. La conception full custom de A à Z de LUT innovantes a été mise en œuvre. Nous proposons dans la deuxième partie la conception d'une mémoire embarquée en technologie SOT (Spin Orbit Torque), pour laquelle un brevet d'invention a été déposé. Enfin, dans la dernière partie, ce type de mémoire SOT-MRAM ainsi que d’autres de type STT-MRAM ont été intégrées dans un processeur volatil afin d'évaluer les éventuels intérêts de ces technologies magnétiques STT et SOT dans ce type de circuit largement répandus<br>After many studies in recent decades, emerging non-volatile memory technologies have recently taken off in the semiconductor market. Their main objective is to replace flash and DRAM memories that reach their limits in terms of density, miniaturization, consumption or speed improvement. Among the emerging technologies, the MRAM memory has been identified as a strong candidate to become a leading storage technology for future memory applications. That is why we propose in the first part the design of hybrid CMOS / Magnetic circuits of LUT type (Look Up Table) in STT-MRAM technology (Spin Transfer Torque) aiming to realize a demonstrator. The full custom design from A to Z of innovative LUTs has been implemented. We propose in the second part the design of a full memory in SOT (Spin Orbit Torque) technology, for which a patent has been deposited. Finally, in the last part, this type of memory SOT-MRAM as well as others of type STT-MRAM were integrated in a volatile processor to evaluate the possible interests of these magnetic technologies STT and SOT in this type of circuit
APA, Harvard, Vancouver, ISO, and other styles
5

Vogrig, Raphaël. "Intégration d'un capteur multi-fonctionnel de vision dans un îlot de fabrication de pièces mécaniques : aspects méthodologiques et réalisationnels." Nancy 1, 1990. http://docnum.univ-lorraine.fr/public/SCD_T_1990_0178_VOGRIG.pdf.

Full text
Abstract:
L'émergence en Productique de disciplines technologiques telles que la visionique s'accompagne couramment d'un développement important des techniques au seul profit de l'aspect réalisationnel et au détriment de l'aspect méthodologique. Ces travaux ont pour objectif d'effectuer une synthèse de ces deux approches dans une perspective cycle de vie d'un Systéme Intégré de Production, en prenant en compte divers aspects liés au produit aux processus de transformation à la partie opérative et à la partie commande d'une application. Ces résultats sont une contribution au Génie Visionique dont l'objectif est d'offrir des méthodes et des outils d'ingénierie dans ce domaine.
APA, Harvard, Vancouver, ISO, and other styles
6

Rodríguez, Moreno Manuel. "Technologie d'empaquetage pour la sûreté de fonctionnement des systèmes temps-réel." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT012H.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent un ensemble de techniques, ou " technologie ", pour le développement et la mise en œuvre efficaces de mécanismes d'empaquetage destinés à la tolérance aux fautes et à la caractérisation de la sûreté de fonctionnement des systèmes temps-réel. Les formalismes, les méthodes et les outils définis par cette technologie sont réunis dans un même environnement. Celui-ci constitue la base des " empaquetâches ", programmes produits automatiquement par compilation de spécifications formelles et exécutés de façon concomitante par une machine virtuelle. En raison de leur rôle majeur dans les systèmes temps-réel, nous avons appliqué cette technologie aux logiciels exécutifs du commerce de type micronoyau. Les empaquetâches pour la tolérance aux fautes sont alors déduits d'une spécification en logique temporelle des services fondamentaux des micronoyaux (ordonnancement, temporisation et synchronisation). Cette spécification sert de base à la détection et au recouvrement d'erreur, tout en s'appuyant sur le concept original d'action de recouvrement (variante d'une fonction élémentaire du système). En ce qui concerne les empaquetâches de caractérisation, la spécification formelle définit des injecteurs de fautes traditionnels, mais aussi novateurs (basés sur la notion de saboteur), ainsi que des sondes logicielles destinées à la mesure de propriétés temporelles et à l'observation de modes de défaillance. Nous avons introduit deux techniques fondamentales à la mise en œuvre effective des empaquetâches : la réflexivité du micronoyau, à des fins pratiques d'observation et de commande, et l'émulation de l'environnement, en vue de l'élimination de l'intrusion temporelle. La technologie d'empaquetage a été intégrée dans un outil d'évaluation (MAFALDA-RT) que nous avons appliqué à l'analyse par injection de fautes d'un système temps-réel bâti sur le micronoyau du commerce Chorus/ClassiX. Enfin, en s'appuyant sur les résultats d'évaluation et en enrichissant convenablement le test d'ordonnançabilité du système, nous avons déduit une méthode expérimentale permettant de déterminer les ensembles d'empaquetâches de tolérance aux fautes compatibles avec les échéances strictes des tâches temps-réel.
APA, Harvard, Vancouver, ISO, and other styles
7

Salamanca, Lamouroux Carolina. "L’appropriation des TICE : le cas des enseignants colombiens ruraux d’anglais dans le programme Computadores Para Educar (Des ordinateurs pour enseigner)." Thesis, Lille 3, 2020. https://pepite-depot.univ-lille.fr/RESTREINT/EDSHS/2020/2020LIL3H009.pdf.

Full text
Abstract:
Les enseignants ruraux colombiens doivent répondre aux exigences des politiques éducatives, telles que l'intégration et l'appropriation des TICE. À cette fin, le projet du gouvernement colombien Computadores Para Educar (CPE) déploie des tablettes et des ordinateurs dans les Ecoles Rurales et forme les enseignants à leur intégration dans toutes les disciplines scolaires. Une partie de ces enseignants déclare devoir s'approprier les TICE pour enseigner l'anglais sans pourtant avoir reçu aucune formation auparavant en didactique des langues. Comment les TICE sont-elles intégrées pour enseigner l'anglais dans ces Etablissements scolaires ? Comment ces acteurs s’approprient-t-ils les TICE ? Cette thèse vise à saisir le processus d'appropriation des TICE par les enseignants ruraux colombiens chargés de l'enseignement de l'anglais. Le cadre conceptuel proposé articule les apports de la sociologie des usages et de l'approche instrumentale de Rabardel.En s’appuyant sur une étude qualitative, les données recueillies permettent d'analyser les usages personnels et professionnels des enseignants tout en insistant sur des facteurs que facilitent de cerner les usages dans toute leur complexité tels que : la réalité socio-culturelle des zones rurales et les différences entre le milieu rural et urbain. L'observation directe menée auprès de 17 enseignants donne ainsi comme résultat un univers d'usages des TICE et une pluralité de formes d'appropriation. Certaines réalités, parfois occultées du travail enseignant, sont mises en lumière en montrant leur incidence dans l'appropriation des TICE et apportent des pistes pour la conception d'une formation aux TICE adaptée aux besoins de la sphère scolaire rurale colombienne<br>Rural Colombian teachers must meet the requirements of educational policies, such as the integration and appropriation of ICT. To this end, the Colombian government project Computadores Para Educar (CPE) is deploying tablets and computers in rural schools and training teachers to integrate them into all school subjects.Some of these teachers declare that they have to use ICT to teach English without having received any training in language teaching before.How are the ICTs integrated to teach English in these educational establishments ? How do these actors appropriate ICTs ?Rural Colombian teachers must meet the requirements of educational policies, such as the integration and appropriation of ICT. To this end, the Colombian government project Computadores Para Educar (CPE) is deploying tablets and computers in rural schools and training teachers to integrate them into all school subjects.Some of these teachers declare that they have to use ICT to teach English without having received any training in language teaching before.How are the ICTs integrated to teach English in these educational establishments ? How do these actors appropriate ICTs ?This thesis aims to understand the process of appropriation of ICT by rural Colombian teachers responsible for teaching English. The proposed conceptual framework articulates the contributions of the sociology of uses and Rabardel's instrumental approach. Based on a qualitative study, the data collected an analyze the personal and professional uses of teachers while emphasizing factors that facilitate the identification of the uses in all their complexity such as : the socio-cultural reality of rural areas and the differences between rural and urban areas. Direct observation conducted with 17 teachers thus results in a realm of uses of ICT and a plurality of forms of appropriation. Certain realities, sometimes hidden from the teaching profession, are highlighted by showing their impact on the appropriation of the ICT in education and provide paths tracks for the conception of a training course on ICT in education adapted to the needs of the Colombian rural school sphere
APA, Harvard, Vancouver, ISO, and other styles
8

Montagner-Morancho, Laurence. "Nouvelle méthode de test en rétention de données de mémoires non volatiles." Toulouse, INPT, 2004. http://www.theses.fr/2004INPT027H.

Full text
Abstract:
La présence de mémoires non volatiles dans les circuits Smartpower a rendu indispensable le test systématique de la rétention de données sur 100% des composants. L’application des tests classiques sur de forts volumes a pour inconvénient d’allonger la durée de test. Ce travail présente un nouveau test de rétention de données de mémoires non volatiles. Dans une première partie, nous avons dressé l’état de l’art des défauts intrinsèques et extrinsèques de ces mémoires ainsi que de leurs tests de fiabilité. Puis nous avons étudié sur un lot d’ingénierie la rétention de données de la mémoire par les voies classiques du vieillissement thermique pour des températures allant de l’ambiante à 300°C sur une période de 7000h. Cette étude nous a permis de discriminer les cellules pour valider un nouveau test en rétention de données, dont la durée est considérablement raccourcie par rapport au test thermique. Ce test se comptera en seconde après optimisation et pourra être implanté en production<br>The introduction of non volatile memory in Smartpower circuits has made necessary systematic 100% die data retention test. Usual tests operated on high production volume increase drastically test time. In this work, we propose a new data retention test on non volatile memory. In a first part, we present a state of the art relative to intrinsic and extrinsic NVM defects and to reliability tests. In a second part, we studied thermal NVM data retention behaviour on engineering lot ranging from ambient temperature to 300°C during 7000h. This study allows cell discrimination to validate a new data retention test which time is strongly reduced compare to the thermal one: after optimisation phases, test time will be about few seconds and then will be implemented in production flow
APA, Harvard, Vancouver, ISO, and other styles
9

Francesca, Gianpiero. "A modular approach to the automatic design of control software for robot swarms: From a novel perspective on the reality gap to AutoMoDe." Doctoral thesis, Universite Libre de Bruxelles, 2017. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/256252.

Full text
Abstract:
The main issue in swarm robotics is to design the behavior of the individual robots so that a desired collective behavior is achieved. A promising alternative to the classical trial-and-error design approach is to rely on automatic design methods. In an automatic design method, the problem of designing the control software for a robot swarm is cast into an optimization problem: the different design choices define a search space that is explored using an optimization algorithm. Most of the automatic design methods proposed so far belong to the framework of evolutionary robotics. Traditionally, in evolutionary robotics the control software is based on artificial neural networks and is optimized automatically via an evolutionary algorithm, following a process inspired by natural evolution. Evolutionary robotics has been successfully adopted to design robot swarms that perform various tasks. The results achieved show that automatic design is a viable and promising approach to designing the control software of robot swarms. Despite these successes, a widely recognized problem of evolutionary robotics is the difficulty to overcome the reality gap, that is, having a seamless transition from simulation to the real world. In this thesis, we aim at conceiving an effective automatic design approach that is able to deliver robot swarms that have high performance once deployed in the real world. To this, we consider the major problem in the automatic design of robot swarms: the reality gap problem. We analyze the reality gap problem from a machine learning perspective. We show that the reality gap problem bears a strong resemblance to the generalization problem encountered in supervised learning. By casting the reality gap problem into the bias-variance tradeoff, we show that the inability to overcome the reality gap experienced in evolutionary robotics could be explained by the excessive representational power of the control architecture adopted. Consequently, we propose AutoMoDe, a novel automatic design approach that adopts a control architecture with low representational power. AutoMoDe designs software in the form of a probabilistic finite state machine that is composed automatically starting from a number of pre-existing parametric modules. In the experimental analysis presented in this thesis, we show that adopting a control architecture that features a low representational power is beneficial: AutoMoDe performs better than an evolutionary approach. Moreover, AutoMoDe is able to design robot swarms that perform better that the ones designed by human designers. AutoMoDe is the first automatic design approach that it is shown to outperform human designers in a controlled experiment.<br>Doctorat en Sciences de l'ingénieur et technologie<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
10

Enembreck, Fabricio. "Contribution à la conception d'agents assistants personnels adaptatifs." Compiègne, 2003. http://www.theses.fr/2003COMP1478.

Full text
Abstract:
Dans ce mémoire nous étudions la conception des agents assistants personnels. Nous avons développé plusieurs mécanismes qui permettent de matérialiser les représentations conceptuelles proposées par Ramos (2000). Nous mettons l'accent sur l'aspect adaptatif de ces représentations, ce qui permet à l'assistant de personnaliser ses actions en fonction du maître. Nous nous sommes aperçus que la plupart des méthodes d'apprentissage couramment utilisées ne sont pas vraiment adaptées aux agents assistants personnels. Nous avons donc développé notre propre méthode d'apprentissage (ELA) qui a été testée et dont les résultats sont significatifs. Nos travaux s'achèvent sur une étude des modèles permettant d'intégrer les différentes représentations développées à travers differents prototypes. Nous avons conçu un modèle générique de système multi-agent personnalisé (SMAP) qui résout les problèmes' inhérents à l'architecture centralisée de Ramos et conserve l'aspect de personnalisation<br>Ln this thesis we study the developpement of personnal assistant agents. We have developped some mecanisms allowing the implementation of the conceptual models proposed by Ramos (2000). We stress the importance of the adaptativity of these models to the user's actions. During the developpement of the work we perceived that common methods of adaptation are not good enough for adaptative personal assistant agents. Thus, we introduced a new leaming approach (ELA) that has been evaluated and whose results are quite good. Our work ends up with a study allowing the integration of the different representations developed in the prototypes. We have designed a multi-agent representation for managing the different dynamic representations of the user with distributed leaming agents. This representation is modeled by a generic personalized multi-agent system architecture (SMAP) solving the problems introduced by Ramos' centralized architecture and allowing personalization
APA, Harvard, Vancouver, ISO, and other styles
11

Marec, Ronan. "Etude des mécanismes de défaillance de mémoires vives statiques, développées en technologie CMOS silicium sur isolant, soumises à une impulsion photonique transitoire : approche expérimentale et simulation électrique." Montpellier 2, 1996. http://www.theses.fr/1996MON20080.

Full text
Abstract:
Nous avons recherche les mecanismes de defaillance sur des memoires vives statiques developpees en technologie cmos silicium sur isolant. Pour realiser cette etude, nous avons etudie experimentalement le comportement de ces memoires sous flash photonique en developpant une procedure experimentale originale. L'analyse des resultats nous a permis d'emettre des hypotheses sur l'origine des mecanismes des dysfonctionnements, et d'observer l'influence du dessin de la cellule memoire et des decalages de masques durant le procede de fabrication sur le comportement de la memoire sous debit de dose. Nous avons confirme l'ensemble de ces resultats par simulation electrique en utilisant une nouvelle methode pour simuler les effets de debit de dose sur la memoire. Ce travail nous a permis de proposer des solutions au niveau de la conception pour ameliorer la tenue des memoires au debit de dose
APA, Harvard, Vancouver, ISO, and other styles
12

Ng, Paulino. "Conception d'architectures testables et détermination des vecteurs de test pour les circuits spécifiques fortement intégrés de la machine MaRS (machine à réduction symbolique)." Toulouse, ENSAE, 1990. http://www.theses.fr/1990ESAE0003.

Full text
Abstract:
L'évolution des outils de conception assistée par ordinateur de circuits numériques fortement intégrés permet d'envisager la réalisation rapide de circuits intégrés de haute complexité logique. Toutefois, plus ces circuits deviennent complexes, plus leur test devient difficile; il est donc fondamental de prendre en compte les techniques de testabilité au plus tôt lors de la définition du circuit. Dans le projet MaRS (machine à reduction symbolique), trois circuits spécifiques fortement intégrés ont été développés; l'auteur propose des modifications de chacune des architectures, des techniques de conception adaptées rendant le test possible et des vecteurs de tests pour chacun de ces circuits. Ces circuits sont montés sur une carte en circuit imprime multi-couche: il propose alors une technique permettant de réaliser le test des différentes interconnexions de la carte. Ces circuits ont été réalisés, les vecteurs de tests définis sont passés sur un testeur de l'intégration complète de la machine a permis de valider le bon fonctionnement de chacun d'eux.
APA, Harvard, Vancouver, ISO, and other styles
13

Laitano, María Inés. "Le modèle trifocal : une approche communicationnelle des interfaces numériques : Contributions à la conception d'interfaces accessibles." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080025.

Full text
Abstract:
: Objet d'étude pour plusieurs disciplines, l'interface numérique se présente comme un objet hétérogène : un dialogue humain-ordinateur, le reflet d’un modèle mental, un instrument, un ensemble de signes sémiotiques… Toutes ces dimensions, traitées individuellement par les approches disciplinaires, n’ont jamais été rassemblées dans un cadre paradigmatique commun. Cette thèse soutient que l’interface, en tant qu’objet d’étude complexe, doit être abordée dans un cadre capable de traiter cette complexité. Elle propose de le faire par la systémique communicationnelle et de poser la réflexion, non pas en termes d’attributs de qualité de l’interface (utilisabilité, communicabilité, convivialité…), mais en termes de significations. Cela implique de centrer le modèle sur l’humain et fournit une vision intégrée, non parcellisée, de l’interface permettant de concevoir de nouvelles interfaces, de les implémenter dans des contextes et des modalités sensorielles diverses.Le modèle trifocal est ainsi une approche systémique de la communication via l’interface. Il étudie les rapports de l’usager à la machine, à l’objet de son activité et au concepteur, ainsi que les propriétés émergentes de ce système. Le modèle trifocal fournit une description de l’interface transposable d'une modalité à une autre. Il permet, d’une part, l’étude de la signification d’interfaces non visuelles et, d’autre part, la traduction d’interfaces d’une modalité dans une autre. Le modèle trifocal jette un regard nouveau sur la conception d’interfaces accessibles puisqu’il complète les méthodes existantes avec des nouvelles dimensions d’analyse<br>Object of study for several disciplines, digital interfaces appear as a heterogeneous object: a human-computer dialogue, a reflection of a mental model, an instrument, a set of semiotic signs ... All these dimensions, addressed individually by disciplinary approaches, have never been gathered in a common paradigmatic framework. This thesis argues that interfaces, as a complex object of study, must be addressed in a framework capable of dealing with this complexity. It proposes to do so by the Systemic Communication Theory and to think about not in terms of interface quality attributes (usability, communicability, conviviality...) but in terms of meanings. This implies a human-centered model and provides an integrated point of view enabling the design of new interfaces as well as their implementation in numerous contexts and sensory modalities.The trifocal model is thus a systemic approach to communication via the interface. It studies the relationships between user and machine, between user and object of his activity and between user and designer, as well as emergent properties of the system. The trifocal model provides an interface description transposable from one modality to another. It allows, on one hand, to study the meaning of non-visual interfaces and, on the other, to translate interfaces from one modality to another. The trifocal model takes a fresh look on designing accessible interfaces since it complements existing methods with new analytical dimensions
APA, Harvard, Vancouver, ISO, and other styles
14

Quéinnec, Philippe. "Techniques de réplication de données pour les systèmes répartis à grande échelle." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT010H.

Full text
Abstract:
A l'heure actuelle, on voit apparaitre de nouveaux types de systemes informatiques possedant des contraintes de disponibilite et de tolerance aux fautes toujours plus strictes, certains systemes critiques (controle aerien, controle de centrale nucleaire) exigeant moins de quelques secondes d'indisponibilite par an. Par ailleurs, la taille des systemes d'information ne cesse de s'accroitre, notamment avec l'interconnexion par reseaux a grande distance. Les systemes distribues possedent a priori des proprietes favorables a la construction de systemes fortement disponibles, dans la mesure ou ils permettent par exemple la replication des donnees ou des traitements, mais leur utilisation souleve de nouveaux problemes, comme l'accroissement du taux de fautes ou la complexite de la gestion de copies multiples. Dans ce cadre-la, nous avons etudie la construction d'un systeme fortement disponible base sur l'utilisation de la replication a grande echelle. L'utilisation de reseaux a grande distance et d'un nombre eleve de copies impose de nouvelles formes de diffusion. Nous avons donc etudie deux formes de diffusion adaptees a un tel environnement: d'une part, la diffusion par algorithmes probabilistes, qui permet d'obtenir une diffusion rapide mais partielle; d'autre part, un systeme hierarchique de diffusion base sur les vagues, fournissant differents degres de coherence, et permettant notamment la gestion de copies en coherence faible au travers de reseaux a grande distance. En depit d'etudes deja anciennes, les preuves de surete ou de vivacite d'algorithmes distribues restent toujours aussi delicates. Pour cela, nous avons utilise le formalisme unity et nous avons etudie comment extraire d'un algorithme distribue ses proprietes de fiabilite. Enfin, nous avons realise un service de memoire virtuelle repliquee en coherence faible, ce qui nous a permis d'etudier les algorithmes de diffusion developpes
APA, Harvard, Vancouver, ISO, and other styles
15

Bazm, Mohammad Mahdi. "Unified isolation architecture and mechanisms against side channel attacks for decentralized cloud infrastructures." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4042.

Full text
Abstract:
Depuis les travaux de Ristenpart [Ristenpart et al., 2009], les attaques par canaux auxiliaires se sont imposées comme un enjeu sécurité important pour les environnements virtualises, avec une amélioration rapide des techniques d’attaque, et de nombreux travaux de recherche pour les détecter et s’en prémunir. Ces attaques exploitent le partage de ressources matérielles comme les différents niveaux de cache processeur entre des locataires multiples en utilisant la couche de virtualisation. Il devient alors possible d’en contourner les mécanismes de sécurité entre différentes instances virtualisées, par exemple pour obtenir des informations sensibles comme des clés cryptographiques. L’analyse des défis d’isolation et des formes d’attaques par canaux auxiliaires basées sur le cache dans les infrastructures virtualisées met en évidence différentes approches pour les détecter ou les contrer, entre machines virtuelles ou conteneurs Linux. Ces approches se distinguent selon la couche logicielle ou seront appliquées les contre-mesures, applicative, système ou matérielle. La détection reste principalement effectuée au niveau de la couche système ou de virtualisation, ce niveau permettant simplement d’analyser le comportement des instances virtualisées. De nouvelles formes distribuées d’attaques ont aussi pu être mises en évidence. Pour la détection, nous explorons une approche combinant des compteurs de performance matériels (HPCs) et la technologie Intel CMT (Cache Monitoring Technology), s’appuyant également sur la détection d’anomalies pour identifier les machines virtuelles ou les conteneurs malveillants. Les résultats obtenus montrent un taux élevé de détection d’attaques. Pour la réaction, nous proposons une approche de Moving Target Defense (MTD) pour interrompre une attaque entre deux conteneurs Linux, ce qui permet de rendre la configuration du système plus dynamique et plus difficilement attaquable, a différents niveaux du système et du cloud. Cette approche ne nécessite pas d’apporter de modification dans l’OS invite ou dans l’hyperviseur, avec de plus un surcoût très faible en performance. Nous explorons enfin l’utilisation de techniques d’exécution matérielle a base d’enclaves comme Intel SGX (Software Guard Extensions) pour assurer une exécution repartie de confiance de conteneurs Linux sur des couches logicielles qui ne le sont pas nécessairement. Ceci s’est traduit par la proposition d’un modèle d’exécution repartie sur infrastructure Fog pour conteneurs Linux. Il s’agit d’un premier pas vers une infrastructure repartie sécurisée Fog illustrant le potentiel de telles technologies<br>Since their discovery by Ristenpart [Ristenpart et al., 2009], the security concern of sidechannelattacks is raising in virtualized environments such as cloud computing infrastructuresbecause of rapid improvements in the attack techniques. Therefore, the mitigationand the detection of such attacks have been getting more attention in these environments,and consequently have been the subject of intense research works.These attacks exploit for instance sharing of hardware resources such as the processorin virtualized environments. Moreover, the resources are often shared between differentusers at very low-level through the virtualization layer. As a result, such sharing allowsbypassing security mechanisms implemented at virtualization layer through such a leakysharing. Cache levels of the processor are the resources which are shared between instances,and play as an information disclosure channel. Side-channel attacks thus use this leakychannel to obtain sensitive information such as cryptographic keys.Different research works are already exist on the detection/mitigation of these attackin information systems. Mitigation techniques of cache-based side-channel attacks aremainly divided into three classes according to different layer of application in cloud infrastructures(i.e., application, system, and hardware). The detection is essentially done atOS/hypervisor layer because of possibility of analyzing virtualized instances behavior atboth layers.In this thesis, we first provide a survey on the isolation challenge and on the cachebasedside-channel attacks in cloud computing infrastructures. We then present differentapproaches to detect/mitigate cross-VM/cross-containers cache-based side-channel attacks.Regarding the detection of cache-based side-channel attacks, we achieve that by leveragingHardware performance Counters (HPCs) and Intel Cache Monitoring Technology (CMT)with anomaly detection approaches to identify a malicious virtual machine or a Linux container.Our experimental results show a high detection rate.We then leverage an approach based on Moving Target Defense (MTD) theory to interrupta cache-based side-channel attack between two Linux containers. MTD allows us tomake the configuration of system more dynamic and consequently more harder to attackby an adversary, by using shuffling at different level of system and cloud. Our approachdoes not need to carrying modification neither into the guest OS or the hypervisor. Experimentalresults show that our approach imposes very low performance overhead.We also discuss the challenge of isolated execution on remote hosts, different scenariosto secure execution of Linux containers on remote hosts and different trusted executiontechnologies for cloud computing environments. Finally, we propose a secure model fordistributed computing through using Linux containers secured by Intel SGX, to performtrusted execution on untrusted Fog computing infrastructures
APA, Harvard, Vancouver, ISO, and other styles
16

Duquennoy, Simon. "Smews : un système d'exploitation dédié au support d'applications Web en environnement contraint." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10184/document.

Full text
Abstract:
Les travaux présentés dans ce mémoire se placent dans le contexte de l'extension des technologies du Web à l'informatique enfouie. Le Web des objets qui en résulte ouvre les portes à de nouvelles interactions en garantissant une interopérabilité aussi bien au niveau réseau qu'applicatif. Nous adressons la conception du système logiciel jouant le rôle de serveur Web au sein d'équipements fortement contraints, tels que des cartes à puce ou des capteurs. Les solutions de l'état de l'art permettant de supporter une pile protocolaire standard à faible empreinte mémoire exigent de sacrifier les performances et les fonctionnalités du système. La thèse défendue est qu'en dédiant un système d'exploitation au support d'une famille d'applications de haut niveau, nous sommes en mesure de produire un logiciel performant et consommant très peu de ressources. Nous étudions une architecture basée sur un macro-noyau intégrant gestion du matériel, pile de communication et conteneur d'applications, présentant une interface adaptée aux besoins de ces dernières<br>The context of this thesis is the extension of Web technologies to ambient computing. The resulting Web of Things allows novel interactions by guaranteeing interoperability at both network and applications levels. We address the design of the software system behaving as a Web server and embedded in strongly constrained devices such as smart cards or sensors. The state of the art solutions allowing to run a lightweight standard protocol stack involve poor performances and sacrifice the system features. The thesis is that by dedicating an operating system to the support of a high-level family of applications, we can produce an efficient software consuming a few resources. We study an architecture based on an macro-kernel integrating the hardware management, the communications stack and the applications container, providing an interface that fits the applications needs
APA, Harvard, Vancouver, ISO, and other styles
17

Jenn, Éric. "Sur la validation des systèmes tolérant les fautes : injection de fautes dans des modèles de simulation VHDL." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT069H.

Full text
Abstract:
Les travaux theoriques et pratiques exposes dans ce memoire introduisent et justifient le choix du langage de modelisation vhdl dans l'objectif de l'integration de la validation par injection de fautes au developpement des systemes surs de fonctionnement. Ce memoire presente tout d'abord une synthese critique des travaux anterieurs portant sur l'injection de fautes en insistant plus particulierement sur les aspects lies aux concepts de modelisation et d'abstraction. On montre ensuite l'interet de la simulation tant du point de vue de la mise en uvre de l'injection de fautes que de l'integration de la validation des proprietes de surete de fonctionnement au processus de conception. Apres avoir justifie le choix de la simulation a evenements discrets, on propose une formalisation de certaines techniques d'injection selon ce principe ; puis, sachant que le choix d'une technique depend non seulement de sa capacite theorique a resoudre un probleme mais aussi et surtout de sa capacite a etre mise en uvre, on traite le probleme de l'optimisation d'une simulation dans le contexte de l'injection de fautes et on decrit un ensemble de methodes de simulation multiniveau (statiques et dynamiques) destinees a favoriser la realisation de cet objectif. Dans ce contexte, on montre que le langage vhdl offre un ensemble de proprietes (puissance d'expression, normalite, modularite, etc. ) favorables a son utilisation pour la validation. Apres avoir introduit les principales caracteristiques de ce langage, differentes solutions de mise en uvre des techniques d'injection sont elaborees (injection directe et indirecte ; usage des fonctions de resolution, des configurations, etc. ). On souligne cependant certaines limitations inherentes au langage et on presente des extensions qui permettent de les contourner. Ces techniques d'injection de fautes sont concretisees par leur integration dans un outil, mefisto, dont on decrit la structure, les fonctionnalites et le mode de fonctionnement. Enfin, cet outil est applique a un modele de processeur afin de comparer deux techniques d'injection particulieres parmi celles proposees: injection directe sur les signaux et injection directe sur les variables. Ce contexte experimental est employe pour illustrer les methodes de simulation multiniveau, pour proceder a la mise en uvre des techniques d'injection en vhdl que l'on a identifiees et pour valider les principes qui sous-tendent l'outil mefisto
APA, Harvard, Vancouver, ISO, and other styles
18

Fenicio, Alessandro. "Ingénierie de l'Interaction Homme-Machine et Persuasion Technologique : étude du concept de Chemin Persuasif." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM035/document.

Full text
Abstract:
Les défis sociétaux sont une préoccupation internationale, avec des incantations quotidiennes au changement : “Fumer tue”, “Boire ou conduire, il faut choisir”, “Manger cinq fruits et légumes par jour”, etc. Toutefois, ces campagnes publicitaires restent à effet limité.Les technologies persuasives sont explorées depuis une quinzaine d’années pour mobiliser le numérique sur ces difficultés de changement de comportement. Les dispositifs et applications de monitoring se multiplient avec des succès commerciaux comme les bracelets ou les montres d’activités physiques. Toutefois l’incitation au changement reste limitée malgré le potentiel du numérique pour des stratégies personnalisées. La difficulté tient à l'interdisciplinarité inhérente au domaine : concevoir des systèmes interactifs persuasifs requiert de maîtriser les fondamentaux et les avancées en psychologie cognitive et sociale, ce qui rend l’exercice extrêmement ambitieux.Cette thèse contribue à l’ingénierie des systèmes interactifs persuasifs. Elle traite du processus de changement de comportement. Elle propose le concept de chemin persuasif pour stimuler l’utilisateur dans son changement de comportement. Le chemin persuasif est une succession d’événements incitant l’utilisateur à cheminer d’une certaine façon dans son ensemble de comportements possibles. Cet ensemble est modélisé en une machine à états explicitant l’ensemble des comportements et des transitions possibles entre comportements. Les transitions sont déclenchées en contexte, lorsque les déterminants des comportements correspondants sont satisfaits dans le contexte courant de l’utilisateur. Une architecture persuasive est proposée pour opérer les machines à état et chemins persuasifs. Le formalisme des machines à état permet aussi la caractérisation et la comparaison des processus de changement de la littérature.Une méthode de conception est proposée pour concevoir, étape par étape, la machine à états et le chemin persuasif. Les étapes procèdent, pas à pas, à des choix de conception rendant le système petit à petit réalité dépendant, problème dépendant, domaine dépendant, tâche dépendant et contexte dépendant. Cette conception progressive est structurante et permet une révision des choix de conception selon la performance observée de la persuasion.Les contributions conceptuelles (concepts et méthode de conception) sont illustrées sur deux cas d’étude complémentaires : d’une part, CRegrette, une application visant à stopper un comportement (fumer) ; d’autre part, Mhikes, une application visant à renforcer un comportement (marcher). Une implémentation complète de Mhikes (concepts et architecture) est détaillée pour démontrer la faisabilité technique des propositions. Sa maturité technologique a permis un déploiement de l’application en grandeur réelle et une évaluation expérimentale des contributions.Les résultats d’évaluation confirment la pertinence des modèles et de l’architecture pour placer des sondes logicielles permettant (1) d’identifier les rôles joués par les utilisateurs, 2) d’en suivre les éventuels changements et 3) d’émettre des notifications personnalisées. Les notifications s’avèrent plus performantes que les campagnes de communication aujourd’hui pratiquées par l’entreprise Mhikes. Toutefois le changement de rôle reste difficile, avec des transitions extra-rôles plus difficiles à franchir que les transitions intra-rôle.In fine, la thèse livre un ensemble complet de méthode, modèles et outils pour l’ingénierie des systèmes interactifs persuasifs. Plus largement, cet ensemble peut servir à d’autres communautés pour progresser dans la compression de l’humain en situation d’interaction<br>Societal challenges are an international concern. Daily advertising campaigns rise attention of people to make them change: "Smoking kills", "Drinking or driving, choose", "Eating five fruits and vegetables a day", etc. However, these campaigns have limited effect.Persuasive technologies have been explored for fifteen years to orient technology on the difficulty of changing behavior. Monitoring devices such as bracelets or watches of physical activities and applications are multiplying obtaining commercial successes. However, despite the potential capabilities of technology of delivering personalized strategies, the incentive to change remains limited. The difficulty lies in the multidisciplinarity of the field: designing persuasive interactive systems requires mastering the fundamental concepts and the advances in cognitive and social psychology, which makes the persuasive practice extremely ambitious.This thesis contributes to the engineering of persuasive interactive systems. It deals with the process of behavior change and proposes the concept of persuasive path to stimulate users in their behavior change. The persuasive path is a succession of events designed to pave the progression of the user toward the change among the set of possible behaviors. This set is modeled with state machines describing all the possible transitions between behaviors. Transitions between behaviors are triggered when the determinants of the corresponding behaviors are satisfied in the current user's context. A persuasive architecture is proposed to orchestrate the state machines and the persuasive paths. The formalism of state machines also allows the characterization and comparison of change processes in the literature.An incremental design method is proposed to design, step by step, the state machine and the persuasive path. The steps proceed in order to actuate design choices that make the system little by little more dependent: problem dependent, domain dependent, task dependent and context dependent. This structuring progressive conception allows a revision of the design choices according to the observed performance of the persuasion.The conceptual contributions (concepts and design method): CRegrette, an application aimed at stopping behavior (smoking); on the other hand, Mhikes, an application aimed at reinforcing behavior (walking). A complete implementation of Mhikes (concepts and architecture) is made available to show the technical feasibility of the approach. The technological maturity of this approach allow the deployment of the application at real scale and an experimental evaluation of the contributions.The evaluation results confirms the relevance of the models and of the architecture, allowing the introduction of software probes (1) to identify the roles endorsed by users, 2) to follow the possible changes and 3) to produce personalized notifications. The notifications resulted more efficient than the communication campaigns operated by Mhikes. However, the role changes remains complex, with extra-transitions that are more difficult to actuate than intra-transitions.In conclusion, the thesis delivers a complete set of methods, models and tools for the engineering of persuasive interactive systems. More broadly, this set can be used by other communities to progress in the compression of human interaction
APA, Harvard, Vancouver, ISO, and other styles
19

Kuntz, Romain. "Medium access control facing the dvnamics of wireless sensor networks." Strasbourg, 2010. https://publication-theses.unistra.fr/public/theses_doctorat/2010/KUNTZ_Romain_2010.pdf.

Full text
Abstract:
Un réseau de capteurs sans fil (Wireless Sensor Network, WSN) consiste en une distribution spatiale d'équipements embarqués autonomes, qui coopèrent de manière à surveiller l'environnement de manière non-intrusive. Les données collectées par chaque capteur (tels que la température, des vibrations, des sons, des mouvements etc. ) sont remontées de proche en proche vers un puits de collecte en utilisant des technologies de communication sans fil. Voilà une décennie que les contraintes inhérentes à ces réseaux attirent l'attention de la communauté scientifique. Ainsi, de nombreuses améliorations à différents niveaux de la pile de communication ont été proposées afin de relever les défis en termes d'économie d'énergie, de capacité de calcul et de contrainte mémoire imposés par l'utilisation d'équipements embarqués. Plusieurs déploiements couronnés de succès démontrent l'intérêt grandissant pour cette technologie. Les récentes avancées en termes d'intégration d'équipements et de protocoles de communication ont permis d'élaborer de nouveaux scénarios plus complexes. Ils mettent en scène des réseaux denses et différentes méthodes de collection de données. Par exemple, l'intérêt de la mobilité dans les WSNs est multiple dans la mesure ou les capteurs mobiles peuvent notamment permettre d'étendre la couverture d'un réseau, d'améliorer ses performances de routage ou sa connexité globale. Toutefois, ces scénarios apportent de nouveaux défis dans la conception de protocoles de communication. Ces travaux de thèse s'intéressent donc à la problématique de la dynamique des WSNs, et plus particulièrement à ce que cela implique au niveau du contrôle de l'accès au médium (Medium Access Control, MAC). Nous avons tout d'abord étudié l'impact de la mobilité et défini deux nouvelles méthodes d'accès au médium (Machiavel et X-Machiavel) qui permettent d'améliorer les conditions d'accès au canal pour les capteurs mobiles dans les réseaux denses. Notre deuxième contribution est un algorithme d'auto-adaptation destiné aux protocoles par échantillonnage. Il vise à minimiser la consommation énergétique globale dans les réseaux caractérisés par des modèles de trafic antagonistes, en obtenant une configuration optimale sur chaque capteur. Ce mécanisme est particulièrement efficace en énergie pendant les transmissions par rafales qui peuvent survenir dans de tels réseaux dynamiques<br>A WSN consists in spatially distributed autonomous and embedded devices that cooperatively monitor physical or environmental conditions in a less intrusive fashion. The data collected by each sensor node (such as temperature, vibrations, sounds, movements etc. ) are reported to a sink station in a hop-by-hop fashion using wireless transmissions. In the last decade, the challenges raised by WSN have naturally attracted the interest of the research community. Especially, signicant improvements to the communication stack of the sensor node have been proposed in order to tackle the energy, computation and memory constraints induced by the use of embedded devices. A number of successful deployments already denotes the growing interest in this technology. Recent advances in embedded systems and communication protocols have stimulated the elaboration of more complex use cases. They target dense and dynamic networks with the use of mobile sensors or multiple data collection schemes. For example, mobility in WSN can be employed to extend the network coverage and connectivity, as well as improve the routing performances. However, these new scenarios raise novel challenges when designing communication protocols. The work presented in this thesis focuses on the issues raised at the MAC layer when confronted to dynamic WSN. We have rst studied the impact of mobility and dened two new MAC protocols (Machiavel and X-Machiavel) which improve the medium access of mobile sensor nodes in dense networks. Our second contribution is an auto-adaptive algorithm for preamble sampling protocols. It aims at minimizing the global energy consumption in networks with antagonist trafic patterns by obtaining an optimal configuration on each node. This mechanism is especially energy-efficient during burst transmissions that could occur in such dynamic networks
APA, Harvard, Vancouver, ISO, and other styles
20

Qachri, Naïm. "Heterogeneous Networks: from integration to mobility." Doctoral thesis, Universite Libre de Bruxelles, 2015. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/216693.

Full text
Abstract:
Français:La notion de réseaux hétérogènes correspond à l’intégration de plusieurs technologies de transmission de données sans-fil dans le but d’accroitre la qualité de service des communications dans les réseaux mobiles.Historiquement, les mécanismes de sécurité des réseaux mobiles et sans-fil ont été largement focalisés sur la protection d’équipement utilisateur au niveau du dernier saut de communication et sur base d’une connectivité simple et unique. Cette connectivité, réduite à sa plus simple expression, a restraint le développement des protocoles de sécurité à des protocoles bi-parties, qui couvrent l’authentification des équipements utilisateurs et le chiffrement sur des communicationsLes mécanismes de sécurité et de cryptographie ne sont donc pas suffisants pour protéger correctement et efficacement des connections parallèles ou leur mobilité au sein de réseaux hétérogènes. Le but de cette thèse de doctorat, à travers quatre contributions personnelles, est d’apporter de nouveaux mécanismes et protocoles de sécurité afin de protéger au mieux les réseaux hétérogènes:• La première contribution se focalise sur le développement d’une nouvelle primitive cryptographique pour la protection des transmissions sans-fil. La propriété principale de celle-ci est de protéger les trames en cas de capture. Cette primitive introduit, notamment, la notion de force brute probabiliste (ce qui veut dire qu’un attaquant ne peut pas choisir parmi différentes clés équiprobables laquelle est effectivement utilisée).• La seconde contribution propose un nouveau protocole pour gérer d’une manière sure et efficace la mobilité des équipements utilisateurs entre différentes technologies au sein de réseaux hétérogènes.• La troisième contribution couvre la gestion des clés maîtres des utilisateurs, embarqués au sein des cartes SIM, utilisées au sein des réseaux d’opérateurs mobiles. Nos protocoles et mécanismes automa- tisent des changements réguliers et sûrs de la clé maître, et ajoutent de la diversité dans la gestion des clés de sessions pour minimiser l’impact en cas de révélation de ces dernières (par le biais d’un vol de base de donnée, par exemple)• La quatrième contribution introduit un nouveau paradigme de connectivité pour les réseaux mo- biles basé sur des communications 1−à−n. Le paradigme redéfinit les frontières de sécurité et place l’équipement utilisateur au centre d’un groupe authentifié mobile. Par conséquent, le changement de paradigme mène à la création de nouveaux protocoles pour l’authentification, la gestion de la mo- bilité et la négociation protégées de clés afin de fournir une protection de bout en bout entre deux équipements utilisateurs ou plus.<br>English:Heterogeneous Networks (HetNets) is the integration of multiple wireless technologies to increase the quality of service of the communications in mobile networks. This evolution is the next generation of Public Land Mobile Networks (PLMNs).Mobile and wireless network security mechanisms have largely focused on the protection of the User Equipment (UE) within the last mile (the last hop of the communication in the chain of connected devices) and on single connections. The single connectivity has reduced the development of the security to two party protocols, and they cover the authentication of the UE to the mobile network and the encryption on a single channel based on homogeneous communications through a unique technology.The current security and cryptographic mechanisms are not sufficient to protect correctly, and efficiently, parallel connections or their mobility in HetNets. The purpose of the PhD Thesis is to bring new security protocols and mechanisms to protect HetNets.The contributions, that are brought by the thesis, follow the evolution of HetNets through 4 contributions by starting from the wireless transmissions to the largest frame of HetNets architecture:• The first contribution focuses on the development of an new cryptographic primitives for wireless transmissions. The main property is to protect the frame from eavesdropping. The primitive introduces the notion of probabilistic brute force (meaning that an attacker cannot decide among different keys which the used one).• The second contribution proposes a new protocol to manage efficiently and securely the mobility of the UEs between different technologies inside HetNets.• The third contribution covers the management of the master secrets, embedded within the Universal Subscriber Identity Module (USIM), in large PLMNs. Our mechanisms and protocols automate regular and secure changes of the master secret, and they add diversity in the management of session keys to minimize the impact of key leakages (in case of credential database theft, for instance).• The fourth contribution introduces a new connectivity paradigm for mobile networks based on one-to- many communications. The paradigm redesigns the security borders and puts the UE in the center of a mobile authenticated group. Therefore, the paradigm shift leads to new security protocols for authentication, mobility management, and secure negotiation to provide end-to-end encryption between two or more UEs.<br>Doctorat en Sciences<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
21

Mandelcwajg, Sacha. "L'efficacité des discours médiatisés par ordinateur." Troyes, 2008. http://www.theses.fr/2008TROY0017.

Full text
Abstract:
Cette thèse est consacrée à l’efficacité des discours médiatisés par ordinateur. Il s’agit d’un travail qui s’inscrit dans le champ de la pragmatique de la communication médiatisée par ordinateur et qui, en croisant la théorie de l’agir communicationnel de J. Habermas et l’analyse pragmatique des discours, décrit les moyens par lesquels les internautes tentent de donner de l’efficacité à leurs discours médiatisés, particulièrement dans les forums de discussion. Nous nous intéressons plus précisément à trois types d'efficacité du langage : l'"efficacité relationnelle", l'"efficacité interrogative" et l'"efficacité argumentative". Par conséquent nous traitons dans cette étude trois questions distinctes : comment les internautes rendent-ils leurs messages efficaces lorsqu'ils cherchent à créer de la relation avec les autres ? Comment les internautes rendent-ils leurs messages efficaces lorsqu'ils cherchent à échanger des informations ? Comment les internautes rendent-ils leurs messages efficaces lorsqu'ils cherchent à débattre ensemble lors d'un échange argumentatif ? Nous répondons à ces questions en décrivant les spécificités de la communication médiatisée par ordinateur et en analysant un corpus de forums de discussion<br>This thesis deals with the efficiency of computer-mediated discourse. It is a work that falls within the scope of pragmatics of computer-mediated communication and which, by crossing the Theory of Communicative Action of J. Habermas and pragmatics speech analysis, describes the ways by which Internet users try to give efficiency to their online discourses, particularly in internet forums. We focus more specifically on three types of efficiency of language: the "relational efficiency", the "interrogative efficiency" and the "argumentative efficiency". Therefore we treat in this study three separate issues: how do Internet users make their messages efficient when seeking to develop relationships with others? How do Internet users make their messages efficient when trying to exchange information? How do Internet users make their messages efficient when trying to discuss together in an argumentative interaction? We respond to these questions through the study of Computer-Mediated Communication characteristics and through a corpus analysis of conversations in internet forums
APA, Harvard, Vancouver, ISO, and other styles
22

Schmitt, Alain. "Une Application de la technologie de groupe assistée par ordinateur aux assemblages mécano-soudés." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37618484g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Schmitt, Alain. "Une application de la technologie de groupe assistée par ordinateur aux assemblages mécano-soudés." Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/09b319f5-5bf7-4fdb-a3a6-4d05782ba1c4.

Full text
Abstract:
La technologie de groupe est une méthode de réunion des composants par familles en fonction de certains critères d'analogie, dans le but d'optimiser la conception et la fabrication des pièces. Notre approche de cette technique comporte deux aspects: a) l'analyse des systèmes de codification existants a mis en évidence des faiblesses de ceux-ci dans le domaine des constructions mécano-soudées. Nous proposons un code de technologie de groupe se limitant a l'étude des 3 groupes de pièces intervenant dans l'activité tôlerie-chaudronnerie, à savoir: les pièces à base de tôles, les pièces réalisées avec des profiles et les assemblages; b) l'autre volet de notre recherche concerne les aspects informatiques. Nous avons entrepris la conception d'un logiciel de tgao fonctionnant sur un micro-ordinateur, dans l'optique de créer un outil adapte aux petites entreprises. La principale originalité de cet outil est d'exploiter un système de gestion de base de données. Nous proposons des concepts nouveaux: 1) le système géré parallèlement une table de codes et un fichier de données générales permettant une recodification automatique; 2) la nomenclature des assemblages est exploitée pour assurer une codification partielle de ceux-ci; 3) la liaison du logiciel avec des méthodes graphiques est prévue, de manière à supprimer la manipulation de documents pendant la saisie
APA, Harvard, Vancouver, ISO, and other styles
24

Cunin, Dominique. "Pratiques artistiques sur les écrans mobiles : création d’un langage de programmation." Thesis, Paris 8, 2014. http://www.theses.fr/2014PA080045/document.

Full text
Abstract:
Tout au long de ses évolutions, l'ordinateur n'a cessé de permettre autant la consultation que la création de médias. Mais contrairement à l'activité de consultation, la création de logiciels interactifs demande une certaine maîtrise de la programmation informatique, qui reste le seul moyen de produire des programmes agissant sur une machine numérique. Dans ce contexte, les pratiques artistiques engagées dans la création d'œuvres interactives ne peuvent se dispenser de recourir à la programmation informatique, c'est-À-Dire à la création logicielle. Mais dans quelles situations les artistes se placent-Ils face aux techniques du numérique et à la programmation en particulier ? Cette interrogation, qui trouve de multiples réponses, revient au premier plan lorsque le paysage des appareils numériques de grande consommation connaît un événement majeur. Notre recherche est issue d’une telle situation : à partir de 2007, l’apparition des écrans mobiles (smartphones et tablettes) a été pour nous l’occasion d’interroger le potentiel de ces nouveaux supports dans la création artistique œuvrant avec l’interactivité. Il s'agissait pour nous de faire œuvre avec les écrans mobiles autant que d’en définir les modalités de mise en œuvre esthétique et technique au moment même de leur introduction dans notre quotidien. Nous cherchons à situer une certaine pratique de l’interactivité dans l’art permise par les écrans mobiles et leurs spécificités techniques, en partant de l'hypothèse selon laquelle les écrans mobiles permettent des mises en œuvre artistiques de l’interactivité que d’autres supports numériques ne permettent pas, mais imposent également des créations logicielles spécifiques<br>Throughout its evolution, the computer never stopped allowing media consultation as well as media creation. Unlike the consultation activity, the creation of interactive software requires some computer programming skills, as it remains the only way to produce programs that acts on a digital machine. In this context, artistic practices involved in the creation of interactive works cannot avoid the use of computer programming and the creation of software. But what circumstances artists are facing when then work with digital technologies and software programming? This question, which has multiple answers, gain in importance when the landscape of massively produced digital devices experiences a major event.Our research is the result of such a situation: starting in 2007, the emergence of mobile screens (smartphones and tablets) was an opportunity to examine the potential of these new digital devices in the field of interactive arts. Our purpose was to create effective art works with mobile screens to be able to define their aesthetic and technical specificities at the very time of their introduction into our daily lives. We try to situate some interactive art practices that mobile screens makes possible thanks to their technical specifications. Our base hypothesis is that mobile screens allow the creation of interactive art work that other digital media cannot afford, but also require the creation of specifics softwares
APA, Harvard, Vancouver, ISO, and other styles
25

Touir, Maatallah. "Conception des canaux assistée par ordinateur CCAO." Master's thesis, Université Laval, 1996. http://hdl.handle.net/20.500.11794/28418.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Laisney, Patrice. "Intermédiaires graphiques et conception assistée par ordinateur : Étude des processus d’enseignement-apprentissage à l’oeuvre dans l’éducation technologique au collège." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM3049.

Full text
Abstract:
Au niveau du collège, la technologie est une discipline générale qui s'adresse à tous les élèves. Ainsi, plus que jamais, au 21ème siècle, la connaissance du monde des objets fait partie de la culture du citoyen. Pour autant la technologie au collège est une discipline encore en construction, les objets de savoir sont partiellement définis et la recherche en didactique de la technologie a encore de nombreux terrains à explorer. Cette thèse s'intéresse aux enseignements technologiques au collège et particulièrement à la conception d'objet. Dans un premier temps, notre but est de répondre, de manière empirique, à la question suivante : quelles sont les difficultés rencontrées par les élèves en situation de conception? A titre exploratoire, nous analysons l'activité d'élèves en train de résoudre collectivement un problème de conception. Nous envisageons dans un deuxième temps d'analyser plus particulièrement les difficultés liées à la production de représentations des solutions possibles au travers du rôle que jouent les outils informatiques de conception assistée par ordinateur. Il s'agit donc de réfléchir à l'intégration de ces outils dans l'enseignement de la technologie au collège. L'utilisation d'intermédiaires graphiques modifierait-elle et dans quel sens les performances des élèves de 5ème dans la phase de recherche de solutions? Le recours aux théories de l'action pour observer l'activité conjointe de l'enseignant et de l'élève se révèle pertinent dans un domaine ou on attend de la recherche qu'elle apporte un tant soi peu des réponses. Au travers des résultats qu'elle propose, cette thèse contribue à la communauté des didacticiens des sciences et de la technologie<br>At the level of the middle school, the technology is a general discipline which addresses all the pupils. So, more than ever, in 21th century, the knowledge of the world of objects is a part of the culture of the citizen. Nevertheless, the technology in middle school is a discipline still under construction, the objects of knowledge are partially defined and the research in didactics of the technology still has numerous questions to investigate. This thesis discusses the design activity of students in middle school (pupils aged 11-15) in France and particularly to designing object. At first, our purpose is to answer, in an empirical way, the following question: what are the difficulties met by the pupils in situation of design? In the exploratory way, we analyze pupils' activity resolving collectively a problem of design. We intend secondly to analyze more particularly the difficulties bound to the production of representations of the possible solutions through the role which play the computing tools of computer-aided design. It is a way to think about the integration of these tools in the teaching of the technology in middle school. Would the use of graphic intermediaries modify and in which sense the performances of the pupils of 5th in the phase of research for solutions? The recourse to the theories of the action is relevant to observe the joint activity of the teacher and the pupil, especially in a domain or we expect from the research that she brings one so much one few answers. Through the results which she proposes, this thesis contributes to the community of the didacticiens of the sciences and the technology
APA, Harvard, Vancouver, ISO, and other styles
27

Laisney, Patrice. "Intermédiaires graphiques et Conception Assistée par Ordinateur - Étude des processus d'enseignement-apprentissage à l'œuvre en technologie au collège." Phd thesis, Université de Provence - Aix-Marseille I, 2012. http://tel.archives-ouvertes.fr/tel-00955099.

Full text
Abstract:
Au niveau du collège, la technologie est une discipline générale qui s'adresse à tous les élèves. Ainsi, plus que jamais, au 21ème siècle, la connaissance du monde des objets fait partie de la culture du citoyen. Pour autant la technologie au collège est une discipline encore en construction, les objets de savoir sont partiellement définis et la recherche en didactique de la technologie a encore de nombreux terrains à explorer. Cette thèse s'intéresse aux enseignements technologiques au collège et particulièrement à la conception d'objet. Dans un premier temps, notre but est de répondre, de manière empirique, à la question suivante : quelles sont les difficultés rencontrées par les élèves en situation de conception ? A titre exploratoire, nous analysons l'activité d'élèves en train de résoudre collectivement un problème de conception. Nous envisageons dans un deuxième temps d'analyser plus particulièrement les difficultés liées à la production de représentations des solutions possibles au travers du rôle que jouent les outils informatiques de conception assistée par ordinateur. Il s'agit donc de réfléchir à l'intégration de ces outils dans l'enseignement de la technologie au collège. L'utilisation d'intermédiaires graphiques modifierait-elle et dans quel sens les performances des élèves de 5ème dans la phase de recherche de solutions ? Le recours aux théories de l'action pour observer l'activité conjointe de l'enseignant et de l'élève se révèle pertinent et au travers des résultats qu'elle propose, cette thèse contribue à la communauté des didacticiens des sciences et de la technologie.
APA, Harvard, Vancouver, ISO, and other styles
28

Bishani, Leila. "Méthodologie de conception et intégration de contraintes géométriques en conception mécanique assistée par ordinateur." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0111.

Full text
Abstract:
La conception en mécanique utilise de nos jours l'assistance de l'ordinateur pour optimiser le temps, le coût et les performances du produit à fabriquer. Cette étude traite du problème de conception mécanique en général, mais à partir de cas concrets étudiés. La bibliographie montre qu'en effet un espace assez grand sépare les idées générales souvent théoriques, des aspects concrets de la conception mécanique. Plus particulièrement, quatre projets de conception de transmission de puissance, soit par engrenage, soit par courroie, ont été considérés. Les projets ont été développés dans l'environnement CATIA. Les conditions et contraintes relatives à une bonne évaluation du comportement ont ainsi été extraites. La troisième partie de cette thèse a consisté à extrapoler les résulats et méthodes acquises, à un cas industriel de conception de boîtier de perçage à têtes multiples. Toujours dans l'environnement CATIA, des solutions ont été proposées en respectant un grand nombre de conditions géométriques. En résumé, l'observation et la réalisation de cas mécaniques significatifs ont permis de réduire la distance entre l'application et théorie, les cas traités ont été présentés afin qu'ils puissent servir aussi dans le cadre du réseau Priméca<br>Actually Mechanical design use a computer Aided to optimise the time, the cost and performance of product for manufacturing. This study treats the problem of Mechanical design in general, but based on a concrete case already studied. The bibliography shows that indeed a space enough separates the general ideas of theoretical of the concrete aspects of the mechanical design. More particularly, four design projects of power transmission by Gear or bet has been considered. Projects have been developed in the environment CATIA, the conditions and the behaviour has been also extracted. The third part of this thesis is consisted to extrapolate the result and the method acquired to an industrial case of drilling moult-head gear box/design. Always in CATIA environrnent, many solutions have been proposed by repressing a large number of geometrical conditions. In summary, the observation and the realisation of significant mechanical cases have allowed to reduce the distance a between the application and the theory. The treated cases have been presented in order to that could serve also in the framework of the Primeca
APA, Harvard, Vancouver, ISO, and other styles
29

Marcireau, Alexandre. "Vision par ordinateur évènementielle couleur : cadriciel, prototype et applications." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS248.

Full text
Abstract:
L'ingénierie neuromorphique aborde de manière bio-inspirée le design des capteurs et ordinateurs. Elle prône l'imitation du vivant à l'échelle du transistor, afin de rivaliser avec la robustesse et la faible consommation des systèmes biologiques. Les caméras évènementielles ont vu le jour dans ce cadre. Elles possèdent des pixels indépendants qui détectent de manière asynchrone les changements dans leur champ visuel, avec une grande précision temporelle. Ces propriétés étant mal exploitées par les algorithmes usuels de vision par ordinateur, un nouveau paradigme encourageant de petits calculs à chaque évènement a été développé. Cette approche témoigne d'un potentiel à la fois pour la vision par ordinateur et en tant que modèle biologique. Cette thèse explore la vision par ordinateur évènementielle, afin de mieux comprendre notre système visuel et identifier des applications. Nous approchons le problème par la couleur, un aspect peu exploré des capteurs évènementiels. Nous présentons un cadriciel supportant les évènements couleur, ainsi que deux dispositifs expérimentaux l'utilisant : une caméra couleur évènementielle et un système pour la psychophysique visuelle destiné à l'étude du temps précis dans le cerveau. Nous considérons l'application du capteur couleur à la méthode de génie génétique Brainbow, et présentons un modèle mathématique de cette dernière<br>Neuromorphic engineering is a bio-inspired approach to sensors and computers design. It aims to mimic biological systems down to the transistor level, to match their unparalleled robustness and power efficiency. In this context, event-based vision sensors have been developed. Unlike conventional cameras, they feature independent pixels which asynchronously generate an output upon detecting changes in their field of view, with high temporal precision. These properties are not leveraged by conventional computer vision algorithms, thus a new paradigm has been devised. It advocates short calculations performed on each event to mimic the brain, and shows promise both for computer vision and as a model of biological vision. This thesis explores event-based computer vision to improve our understanding of visual perception and identify potential applications. We approach the issue through color, a mostly unexplored aspect of event-based sensors. We introduce a framework supporting color events, as well as two experimental devices leveraging it: a three-chip event-based camera performing absolute color measurements, and a visual psychophysics setup to study the role of precise-timing in the brain. We explore the possibility to apply the color sensor to the genetic engineering Brainbow method, and present a new mathematical model for the latter
APA, Harvard, Vancouver, ISO, and other styles
30

Marpinard, Alain. "Effets des mécanismes d'exception sur la structure des logiciels : Application aux systémes ADA sûrs de fonctionnement." Toulouse, INSA, 1993. http://www.theses.fr/1993ISAT0004.

Full text
Abstract:
La conception de systemes complexes necessite une decomposition du probleme en plusieurs sous-problemes, resolus separement. Un logiciel est ainsi generalement concu comme une hierarchie fonctionnelle de sous-systemes modulaires. Cette hierarchie se retrouve egalement dans l'architecture du logiciel, du fait des constructions syntaxiques utilisees. La conception d'application distingue frequemment la definition d'un comportement habituel de l'application de celle d'un comportement exceptionnel, a la fois dans le temps et dans la localisation. Le but de notre etude consiste a evaluer les consequences d'une prise en compte distincte des evenements exceptionnels sur la structure d'une application logicielle prealablement definie. L'architecture etablie ayant ete conditionnee par la conception du traitement courant, elle pourra etre remise en cause lorsque les traitements exceptionnels seront consideres. Le concepteur doit disposer de moyens permettant de maitriser ces evenements (moyens d'eviter leur apparition, ou moyens de detection et de reaction). Apres avoir rappele les principes et techniques de la surete de fonctionnement, en etudiant principalement les aspects structurels, nous comparons les mecanismes d'exception de divers langages de programmation en degageant leurs caracteristiques communes vis-a-vis de la structure des programmes les utilisant. Cette synthese nous permet de mettre en evidence les caracteristiques du langage ada par rapport a son mecanisme d'exception utilise pour implanter les traitements d'evenements exceptionnels specifies. Les difficultes rencontrees et l'importance des modifications de traitements nous ont conduit a etudier et a implanter un prototype d'aide a l'evaluation des consequences de la prise en compte d'un evenement exceptionnel sur la structure syntaxique. Cette etude est basee sur le graphe de controle de l'application d'origine et sur les modifications de structure engendrees pour l'obtention du comportement exceptionnel souhaite. Les utilisations, extensions ou ameliorations possibles de cet outil sont ensuite developpees, concluant notre redaction
APA, Harvard, Vancouver, ISO, and other styles
31

Labrune, Jean-Baptiste. "Enfants et technologies créatives : un phénomène d'exaptation." Paris 11, 2007. http://www.theses.fr/2007PA112345.

Full text
Abstract:
Les phénomènes d’exaptations sont définis comme des reconfigurations fonctionnelles à partir de règles contingentes, non prédictibles. Dans un contexte technologique, il peut s’agir par exemple d’épisodes de modification des technologies par leurs utilisateurs, dans des règles qui n’ont pas été prévues auparavant par les concepteurs du système. Dans cette dissertation, nous montrons que l’interaction enfant-machine est un phénomène d’exaptation. Nous détaillons comment les enfants modifient les fonctions des interfaces et créent également de nouvelles fonctions à partir d’éléments non fonctionnels. Nos résultats montrent notamment que les reconfigurations technologiques sont possibles non-seulement grâce à l’existence d’éléments fonctionnels réassemblables mais également lorsque des espaces ouverts (spandrels) peuvent être investis par les utilisateurs. Cette thèse propose des résultats d’ordre empiriques, théoriques, méthodologiques et technologiques dont six études qualitatives à l’aide de la méthode de « Grounded Theory » ainsi que la réalisation de dix prototypes fonctionnels d’interfaces tangibles et d’une boîte à outils pour faciliter la génération et le prototypage de ce type d’interfaces destinées à étudier la créativité par le biais d’observations faites par les enfants<br>Exaptive phenomenon are defined as functional reconfigurations out of contingent rules, i. E. Non predictable. In a technological context, it could be, for example, modification of technology by it users, through rules that have not been designed by the people who created the system. In this dissertation, we show that child-machine interaction is an Exaptive phenomenon. We examine how children modify functions of interfaces and also create new functions out of non-functional items. Our results show that technological reconfigurations are possible when reconfigurable items exist but also when open spaces (spandrels) allow users to invest creatively technology. This dissertation proposes empirical, theoretical, methodological and technological results. Six qualitative studies have been developed in order to facilitate creativity study based on observations made by children
APA, Harvard, Vancouver, ISO, and other styles
32

Mainaud, Bastien. "Réseaux de capteurs pour l'assistance aux personnes : conception et développement de mécanismes de fiabilisation." Thesis, Evry, Institut national des télécommunications, 2010. http://www.theses.fr/2010TELE0015/document.

Full text
Abstract:
Les réseaux de capteurs ont créé un domaine de recherche très intéressant avec un champs d'applications très large. L'assistance aux personnes est notamment une des nombreux champs potentiels. Les contraintes de ce type de réseaux sont nombreuses et nécessitent des mécanismes spécifiques. Les problématiques de consommation d'énergie et de sécurité sont particulièrement importantes et ont fait l'objet de travaux spécifiques. La thématique de l'assistance aux personnes impose notamment des contraintes de robustesse et de fiabilité des communications. Le but de ces travaux de recherche est de définir diverses solutions permettant de répondre à ces problématiques. Ces travaux se décomposent en trois parties. Dans un premier temps, une plate-forme de communications basée sur les réseaux personnels PAN a été définie. Cette plate-forme a été développée et intégrée dans une station de métro Parisienne. Une modélisation de cette plate-forme ainsi qu'une analyse des observations et des résultats issus de cette intégration nous ont permis d'identifier les faiblesses de l'architecture et des technologies mises en œuvre. Dans un deuxième temps, nous avons développé diverses solutions permettant de fiabiliser cette plate-forme. En particulier, nous avons conçu un algorithme d'ordonnancement permettant de réduire la consommation d'énergie dans les réseaux capteurs par l'utilisation d'une analyse sémantique des données. Nous avons ensuite proposé une architecture de sécurité, Tiny 3-TLS, qui permet de sécurisé les communications entre un capteur et une entité située sur un réseau disjoint. Enfin, nous nous sommes intéressés aux communications entre cette plate-forme et les terminaux mobiles. L'aspect fiabilité a en particulier fait l'objet de travaux spécifiques. C'est pourquoi dans un troisième temps, nous avons proposé une solution de routage définissant une nouvelle métrique. Nous avons ensuite proposé un protocole coopératif permettant un apport de fiabilité dans les communications<br>Wireless Sensors Networks is a very active research area with a very large scope of possible application. In particular, assistance to person is one of the promising applications. The constraints in this kind of networks are strong and needs of specifics mechanisms. Energy consumption and security are particularly important and are subject of several works. Assistance to person set some robustness constraints and communications reliability. The goal of these works is to define several solutions to answer to these problematic. This work has been split in three different parts. First, a communication platform based on Personal Network techniques was defined. This platform was design, develop and install in a Paris metro station. We made an analytical model of our platform to perform an analysis of its performances. This analysis and the results from the platform installation itself allow us to clearly define the architecture weaknesses and the technologies drawbacks. Second, we developed several solutions to bring reliability to the platform. First, we designed a scheduling algorithm allowing to reduce the bandwidth utilization. This algorithm uses a semantic data analysis to help the data scheduling. Then, we define a solution bringing security to the communications between a sensor node and a remote monitoring terminal. This solution allows to establish a secure end-to-end tunnel between two entities in an heterogeneous network. At last, we were interested to the communications between the platform and the mobile terminal. We focus our work on the reliability aspect of the communications. So, in the last part of this thesis, we suggest a routing protocol using a metric based on the RSSI. Then, we define a cooperative protocol bringing more reliability to the communications
APA, Harvard, Vancouver, ISO, and other styles
33

Fievre, Michaël. "Conception et validation technologique de têtes intégrées d’écriture multipistes pour l’enregistrement hélicoïdal sur bande." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0167.

Full text
Abstract:
Les techniques de stockage de l’information ont connu un essor important avec l’avènement de l’informatique et de toutes les activités multimédia. L’enregistrement hélicoïdal sur bande, qui reste le média le plus économique est destiné à stocker de très importants volumes d’information. Le nombre de têtes d’écriture/lecture utilisées par ce type d’enregistreurs augmente pour améliorer les taux de transfert. Le problème du positionnement entre les têtes devient donc central. La technologie de fabrication des têtes pour l’enregistrement hélicoïdal proposé par la société Alditech qui est entièrement intégrée sur silicium constitue le point de départ du travail présenté ici. En effet, l’objectif est de réaliser une tête double en s’affranchissant des problèmes de positionnement des têtes entre elles grâce aux technologies importées de la microélectronique. La démarche qui a amené à proposer la structure du composant est présentée ici. La faisabilité de cette structure est ensuite validée par l’étude de briques de base technologiques et la réalisation d’un premier démonstrateur. Par ailleurs les perturbations du fonctionnement magnétique des têtes introduites par l’utilisation d’une technologie têtes doubles ainsi que les phénomènes de diaphonie entre les têtes sont étudiés par simulation numériques<br>The data storage techniques knew an important development due to the success of the multimedia activities. Helical recording on tape, that remains the most economical media, is used for the very important data volumes. The number of read/write heads used by this type of recorders increases to improve the transfer rates. Thus the problem of the relative heads positioning becomes central. The manufacture technology of helical recording heads proposed by Alditech is fully integrated on silicon wafers. It constitutes the departure point of the work presented here. The purpose is to build a double head suppressing the positioning problems of heads thanks to the imported technologies of the microelectronic. The gait that brought to propose the structure of the component is presented here. Next the feasibility of this structure is validated by the study of basic technological steps and the realization of the first demonstrator. Besides the perturbations of the magnetic function of the heads introduced by the “double head” technology as well as the crossfeed phenomena between the heads are studied by numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
34

Gehm, Moraes Fernando. "Synthèse topologique de macro-cellules en technologie CMOS." Montpellier 2, 1994. http://www.theses.fr/1994MON20183.

Full text
Abstract:
Les problemes majeurs de la generation automatique du dessin des masques des circuits integres sont la dependance vis-a-vis des regles de dessin et le dimensionnement correct des transistors. Les methodes traditionnelles, telles que l'utilisation de cellules pre-caracterisees, manquent de flexibilite, car les portes des bibliotheques (en nombre limite) sont dessinees et dimensionnees pour une technologie donnee. Les methodes de synthese automatique du dessin des masques ont pour but de surmonter ces problemes. L'independance vis-a-vis des regles de dessin est obtenue en utilisant la technique de description symbolique, et les dimensions des transistors sont definies par le concepteur ou par un outil de dimensionnement. Nous proposons une methode et un prototype logiciel pour la synthese automatique des masques, en utilisant le style linear-matrix multi-bandes. La description d'entree du generateur est un fichier au niveau transistor, ce qui permet d'avoir un nombre tres eleve de cellules, en particulier les portes complexes, et ainsi avoir une meilleure optimisation lors de la phase d'assignation technologique. Les macro-cellules generees doivent etre assemblees afin de realiser un circuit complet. Deux contraintes supplementaires sont ainsi imposees au generateur: malleabilite de la forme et position des broches d'entrees/sorties sur la peripherie de la macro-cellule. Les macro-cellules sont assemblees en utilisant un environnement de conception industriel. Les contributions de ce memoire de doctorat sont d'une part le developpement d'un generateur de macro-cellules flexible ayant les caracteristiques d'independance aux regles de dessin et d'integration dans un environnement de macro-cellules, et d'autre part l'etude detaillee des parametres qui determinent la surface occupee, les performances electriques et la puissance dissipee des macro-cellules generees automatiquement
APA, Harvard, Vancouver, ISO, and other styles
35

Kataya, Bassam. "Modélisation des tolérances géométriques des mécanismes pour leur intégration en conception assistée par ordinateur." Phd thesis, Chambéry, 2002. http://tel.archives-ouvertes.fr/tel-00419316.

Full text
Abstract:
L'objet de ce travail est de proposer des nouvelles approches d'analyse et synthèse des tolérances géométriques de mécanismes. Nous présentons l'approche par les équations de tolérancement et l'approche statique qui sont basées sur la théorie des mécanismes. ces deux approches permettent de déterminer qualitativement les tolérances de positions relatives des surfaces fonctionnelles d'une même pièce. Nous présentons des méthodes d'analyse et synthèse des tolérances utilisant la notion de domaine jeux et de domaine écarts. Dans les cas de mécanismes en boucle simple, la méthode d'analyse permet de vérifier les conditions d'assemblage grâce à quelques opérations géométriques entre les domaines jeux et écarts. Pour des conditions fonctionnelles données, la méthode de synthèse, permet de choisir, du point de vue qualitatif et quantitatif, des tolérances optimales dans de nombreux cas. Dans le cas de mécanisme en structure parallèle, nous introduisons la notion de domaine jeu résiduel et de domaine d'incertitude. A l'aide de ces domaines, la méthode d'analyse permet de définir les conditions nécessaires et suffisantes d'assemblage. Elle permet également de généraliser cette étude pour vérifier d'autres conditions fonctionnelles comme les conditions de précision. Les perspectives de développements consistent à généraliser l'approche sur des mécanismes de structure quelconque, et à intégrer ces méthodes d'analyse et de synthèse dans les systèmes de C.A.O..
APA, Harvard, Vancouver, ISO, and other styles
36

Ledun, Marin. "La démocratie assistée par ordinateur : du sujet politique au consommateur à caractère politique /." Paris : Connaissances et savoirs, 2005. http://catalogue.bnf.fr/ark:/12148/cb39994580v.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Baccus, Bruno. "Simulation bidimensionnelle de technologies silicium : l'approche multicouche." Lille 1, 1990. http://www.theses.fr/1990LIL10017.

Full text
Abstract:
Un code de simulation bidimensionnelle des procédés technologiques silicium a été développé : impact 4. L'approche multicouche permet la redistribution des impuretés dans tous les matériaux courants, pour des technologies mos (metal-oxyde-semiconducteur) ou bipolaires. La méthode des éléments finis a été retenue pour la discrétisation des équations de diffusion, utilisant des éléments triangulaires linéaires, l'intégration temporelle étant effectuée par un schéma implicite incomplet. Un traitement original de la matrice finale autorise une solution efficace aux problèmes numériques engendrés par la ségrégation des impuretés aux interfaces. L'oxydation bidimensionnelle est modelisée sous la forme de l'ecoulément d'un fluide visqueux incompressible. Par ailleurs, une approche unifiée de maillage est utilisée pour toutes ces étapes numériques. Le couplage avec la redistribution des impuretés a également été étudié, se révélant compatible avec les discrétisations spatiales et temporelles des équations de diffusion. Enfin, des procédures originales de maillage adaptatif sont proposées, déterminant des résultats intéressants au niveau du gain en temps de calcul et de la précision des profils de dopage dans le cas de structures complexes de grandes dimensions. Trois applications valident ce programme. En particulier, l'influence de paramètres technologiques sur les performances de deux procédés bipolaires est analysée
APA, Harvard, Vancouver, ISO, and other styles
38

Heinrich, Marie-Noëlle. "Création musicale et technologies nouvelles : l'instrument représenté ou la relation simulée." Grenoble 3, 2001. http://www.theses.fr/2001GRE39007.

Full text
Abstract:
Qu'elles soient technologiques ou théoriques, la musique connait d'importantes ruptures au XXe siècle. L'objectif principal de ce travail est d'apporter un éclairage sur l'évolution de la création musicale avec les nouvelles techniques. Dans un premier temps, à partir d'une approche historique, sont analysés les changements que proposent les nouvelles technologies, principalement sur les plans instrumental et compositionnel. Dans un second temps, à travers une analyse théorique, nous étudions en quoi consiste la rencontre entre musique, science et technologie, et plus précisément la recherche musicale. Enfin, nous nous intéressons aux nouvelles compétences et relations que permet la création musicale avec les nouvelles techniques.
APA, Harvard, Vancouver, ISO, and other styles
39

Laurent, Joël. "Recherches expérimentales artistiques sur l'hybridation des technologies analogiques avec les technologies numériques tridimensionnelles : la vidéographie tridimensionnelle." Paris 8, 1997. http://www.theses.fr/1997PA081389.

Full text
Abstract:
Cette these vise a apporter des elements de reflexion sur l'image de synthese tridimensionnelle en tant qu'outil de creation et des elements de reponse par l'experimentation. Il s'agit de penser et d'eprouver autrement l'image, grace au numerique, pour que l'image s'avance vers de nouvelles voies de l'image. Le film par le corps de la terre. Creation et procreation, film realise pendant ces quatre annees de recherche et dont le materiau unique est le corps, est la trame de toute la these. Une nouvelle strategie de la creation d'image a ete mise au point, qui a permis de developper un nouveau procede de post-traitement dynamique de l'image : la videographie tridimensionnelle. Ce procede est fonde sur l'hybridation des technologies analogiques avec les technologies numeriques tridimensionnelles ( elles-memes fondees sur l'hybridation ). L'esthetique de l'hybridation oriente toute l'image de synthese tridimensionnelle vers un art de la dynamique. L'hybridation apparait ainsi comme une nouvelle facon de penser, de faire, de percevoir et finalement de vivre l'image<br>The aim of this thesis is to provide matter for thought on using the three-dimensional computer graphic as a creative tool and give answers through experimentation. It is all about thinking and feeling about pictures differently, thanks to numeric technologies, so that the picture develops further into new directions. The film by the body of the earth, creation and procreation, produced during the past four years of research, uses the body as its sole material and is the basis of the whole thesis. A new strategy for creating images has been developed, which made possible the development of a new process of three-dimensional dynamic post-treatment of pictures: threedimensional video-graphics. This process is based on the hybridisation of analogous tecnologies with three-dimensional digital technologies (also based on hybridisation ). The aesthetics of hybradisation directs the three-dimensional computer graphic towards a dynamic art. Hybridisation therefore appears as a new way of thinking, doing, perceiving and finally, experiencing a picture
APA, Harvard, Vancouver, ISO, and other styles
40

Ouerdani, Abdelaziz. "Contributions à l'étude d'un processeur monolithique 32 bits en technologie CMOS." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00320997.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Fenoglio, Philippe. "Innovation, dynamique de la différenciation verticale et tarification de l'innovation : une application aux marchés français des ordinateurs personnels : 1986-1993." Paris 2, 1997. http://www.theses.fr/1997PA020098.

Full text
Abstract:
Cette these analyse la relation verticale entre deux marches ou les producteurs de facteurs sur le marche en amont proposent des innovations a incorporer dans les produits offerts sur un marche verticalement differencie en aval. Dans le cadre d'un duopole monoproduit en aval, et sans cout de production, l'adoption d'un rythme optimal de diffusion des innovations correspond au resultat de maximum de differenciation, et permet d'accroitre le profit des firmes en aval, ainsi que le profit collectif. La problematique repose sur le fait de savoir si une remuneration des facteurs a leur contribution relative a la production de la qualite permet au producteur d'une innovation de recuperer les surplus generes sur le marche en aval. L'adoption d'une tarification proche du principe de la theorie de l'imputation montre que tel est le cas. Neanmoins, ceci necessite une discrimination parfaite en prix. Le rejet de ce choix strategique nous conduit a confronter l'offre et la demande globales des facteurs, tout en gardant une demande basee sur la contribution relative a la qualite. Dans ce cadre, les producteurs d'innovations ne peuvent capter la totalite des surplus generes. Cette dynamique implique l'adoption d'un rythme optimal. Or, les interets individuels conduisent l'industrie a retenir un rythme sous-optimal. Par exemple, et ceci constitue un resultat original, la firme de faible qualite accepte un degre maximal de differenciation. Ainsi, le principe de maximum de differenciation n'existe que dans une certaine mesure, nous ramenant a un modele a la hotelling. L'application aux marches francais des ordinateurs personnels montre que ceux-ci suivent un rythme sous-optimal se traduisant par une homogeneisation qualitative de l'offre, des prix faibles, et l'existence de profits collectifs inferieurs a ceux qu'ils pourraient etre dans le cadre d'un rythme optimal. En ce sens, les producteurs en amont des marches des pcs disposent d'une rentabilite inferieure<br>This thesis analyses the vertical relation between two markets in which producers of factors on the backward market offer innovations to incorporate in the products offer on a certically differentiated market, forward. In the frame of a monoproduct duopoly, and without any production cost, the adoption of an optimal rythm of the diffusion of innovations corresponds to the result of maximal differentiation, and allows to increase the profit of firms forward, as well as the collectif profit. The question of this thesis lies upon the fact to know if a factor remuneration to its relative contribution to the production of quality allows to the producer of an innovation to recover the surplus generated on the market forward. The adoption of a tarification close to the principle of the imputationtheory shows that this is right. Nevertheless, this implies a perfect price discrimination. The rejection of this strategic choice conduct us to confront globals supply and demand of factors, altough the demand is based on the relative contribution of quality. In this frame, producers of innovations can't recover the whole generated surplus. This dynamics implies the adoption of an optimal rythm. Yet, individuals interest conduct the industry to opt for an under-optimal rythm. For instance, and this represents an original result, the firm of lower quality accepts a maximal degree of differentiation. Thus, the principle of maximum differentiation is verified untill a certain limit, bring us back to a model "a la hotelling". The application to the french markets of personal computers shows that this one follow an under-optimal rythm. In this frame, we assist to a qualitative homogeneization of supply, weak prices, and collectif profit inferior to those that we can obtain in an optimal rythm. In this way, producers backward have a lower profitability
APA, Harvard, Vancouver, ISO, and other styles
42

ZANOTELLI, REIVANI CHISTE. "LÊS PROFESSEURS UNIVERSITAIRES FACE À DES NOUVELLES TECHNOLOGIES : L`UTILISATION DE L`ORDINATEUR ET DE L`INTERNET AU TRAVAIL QUOTIDIEN." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2009. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=13977@1.

Full text
Abstract:
CONSELHO NACIONAL DE DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO<br>L`actuel panorama éducationnel et économique est façonné par deux forces puissantes: la technologie et l`information. La société d`information, successeur de la société industrielle, s`introduit et modèle presque tous les aspects de la vie quotidienne. La révolution digitale est en train de modifier, de façon fondamentale, nos concepts d`espace et de temps. D`ailleurs, les universités représentent un modèle singulier de management et dissémination de connaissances, vue que elles utilisent l`information comme facteur stratégique, l`homme comme agent receveur et générateur d idées et la technologie pour la valorisation du travail. Les nouvelles expressions digitales ne demandent seulement de l infrastructure mais demandent également une évolution des modèles d apprentissage - enseignement et concepts. Toutes les catégories professionnelles sont touchées, et le professeur universitaire n est pas à l extérieur de ce processus. La recherche qui a donnée la base pour cette thèse a été développée par deux dimensions. La dimension théorique est fondée dans les présuppositions des scientifiques sociales qui font de la recherche sur ce thème. Ces scientifiques essayent d apporter une idée plus approfondie des effets des transformations sociales en train de se dérouler au travail et au monde d une manière générale. Pour la recherche empirique, 10 professeurs qu ont plus de 15 ans d expérience dans l’enseignement universitaire se sont exprimés par des entretiens directes, semi-structurés, à propos de ses pratiques actuelles comme enseignants d`universités et également sur la façon qu`ils perçoivent et expérimentent les changements dans l ambiant de travail d`un monde analogique vers un monde digitale. À partir des récits des professeurs il est possible de conclure que l`utilisation des ressources de la Technologie de l Information est de plus en plus présente au milieu éducationnel universitaire, bien que nous sommes encore dans une phase de transition. Ainsi, une partie des professeurs aperçoivent des changements impactant au travail, en revanche, il y a des enseignants qui pensent que les nouvelles technologies, en spéciale l`internet et l`ordinateur, n`ont pas modifié d`une manière significative ses pratiques d`enseignement.<br>O atual panorama educacional e econômico vem sendo moldado por duas poderosas forças: tecnologia e informação. A sucessora da sociedade industrial – a sociedade de informação – penetra e molda quase todos os aspectos da vida diária. A revolução digital vem alterando, de maneira fundamental, nossos conceitos de espaço e tempo. Nesse sentido, as universidades representam um modelo singular de gestão e disseminação de conhecimentos, uma vez que utilizam a informação como um fator estratégico, o homem como agente receptor e gerador de idéias e a tecnologia para a valorização do trabalho. As novas expressões digitais exigem da sociedade não apenas infra-estrutura, mas também uma evolução nos padrões de aprendizagem - ensino e conceitos. Da mesma maneira, todas as categorias profissionais são, de alguma forma, afetadas e o professor de Ensino Superior não fica de fora deste processo. A pesquisa que fundamenta a presente tese desenvolveu-se pautada em duas dimensões: teórica e prática. A teórica se fundamenta nas pressuposições levantadas por cientistas sociais que vêm se debruçando sobre o tema no intuito dar um sentido mais amplo dos efeitos das transformações sociais que estão acontecendo no trabalho e no mundo de modo geral. Já na pesquisa de campo, através de entrevistas face-a-face semi-estruturadas, 10 professores de ensino superior com mais de 15 anos de experiência, puderam expressar, não somente suas práticas atuais como docentes de instituições de Ensino Superior, mas também, como estão percebendo e vivenciando as mudanças que ocorreram no seu campo de trabalho, na transição de um mundo analógico para um mundo digital. A partir da fala dos professores concluiu-se que o uso dos recursos da Tecnologia da Informação está cada vez mais difundido no meio acadêmico, mas que ainda estamos vivendo em uma fase de transição. Assim, por um lado, parte dos professores percebe mudanças impactantes na sua rotina de trabalho; outros, porém, partilham da opinião de que as novas tecnologias, em especial a Internet e o computador não alteraram, significativamente, a sua prática acadêmica.
APA, Harvard, Vancouver, ISO, and other styles
43

Chaudier, Frédérique. "Etude physique des transistors bipolaires à hétérojonctions Si/SiGe intégrés dans une technologie BiCMOS 0,35 µm." Lyon, INSA, 2001. http://www.theses.fr/2001ISAL0056.

Full text
Abstract:
Le travail présenté dans ce manuscrit concerne l'étude physique des transistors bipolaires à hétérojonctions Si/SiGe intégrés dans une technologie BiCMOS 0,35µm. Cette thèse étudie l'impact sur les performances du transistor du déplacement de la jonction émetteur-base (EB) et de la jonction base-collecteur (BC) par rapport au profil de Ge de la base SiGe. Nous avons réalisé à ce sujet plusieurs études numériques qui nous ont permis de montrer que l'impact de l'exodiffusion du bore à la jonction BC peut être dépendant de la position de jonction EB. Une étude expérimentale réalisée sur des transistors bipolaires fabriqués par GRESSI (CNET-CEA-ST Microelectronics) a permis de mettre en évidence le déplacement des jonctions EB et BC sous l'effet des phénomènes de diffusion accélérée du bore. Ces phénomènes sont en partie liés à l'implantation ionique locale du collecteur (SIC). Cette étude expérimentale nous a également permis d'étudier le fonctionnement des transistors de petites et de grandes dimensions. Il apparaît d'après cette étude que le courant collecteur des transistors de petites dimensions peut être amélioré sous certaines conditions<br>This work reports on a physical study of SiGe heterojunction bipolar transistors. We study how device performance is affected by the position of the emitter-base (EB) and base-collector (BC) junctions. From numerical simulations, we demonstrated that the performance degradation due to boron outdiffusion at the BC junction could depend on the position of EB junction in the SiGe gradual base. An experimental study of EB and BC junction positions in real bipolar transistors was carried out. From the experimental results, we established that selective ion implantation of collector (SIC) is responsible for transient enhanced diffusion effect. These effects induce junction displacements and performance variations. Our experimental study was also very useful to analyse small geometry effects. One of our conclusions was that small transistor collector current can be improved under certain conditions
APA, Harvard, Vancouver, ISO, and other styles
44

Walter, Jean-Luc. "Etude d'implantation de la technologie de groupe : application à la société Holweg International." Mulhouse, 1993. http://www.theses.fr/1993MULH0295.

Full text
Abstract:
Parmi les stratégies possibles assurant la mutation de l'entreprise, l'approche basée sur la technologie de groupe semble très prometteuse. En effet, la technologie de groupe est un concept basé sur l'identification et l'exploitation des ressemblances ou similarités entre les produits et entre les processus de conception et de fabrication en vue de rationaliser la production et de diminuer les coûts industriels. Les objectifs fixés dans le cadre de notre étude portent sur le développement d'une méthodologie d'implantation de la technologie de groupe et le développement d'outils informatiques pouvant faciliter l'intégration de cette dernière au sein des entreprises. Le mémoire se divise en quatre chapitres. Le premier chapitre introduit le concept général de technologie de groupe. Le deuxième chapitre propose un modèle conceptuel d'étude d'implantation de la technologie de groupe. Nous utilisons l'outil S. A. D. T. (Structured Analysis Design Technique) pour restituer les fonctions principales d'une telle démarche. Le troisième chapitre présente l'étude et la réalisation d'un système général de technologie de groupe G. T. S. (Group Technology System). Les caractéristiques principales de G. T. S. Par rapport aux autres systèmes de T. G. A. O. (Technologie de Groupe Assistée par Ordinateur) sont: 1) l'utilisation d'algorithmes nouveaux de classification automatique, 2) l'utilisation de nouveaux algorithmes de discrimination, 3) l'utilisation d'une base de données unique pour l'analyse des flux et des codes. Le quatrième chapitre illustre l'application de notre méthodologie à l'étude d'un cas industriel relatif à une production manufacturière. Lors de cette étude, réalisée au sein de la société Holweg International, nous avons entre autres défini deux systèmes de codification, l'un dédié aux composants et l'autre attribué aux sous-ensembles des machines. La méthodologie développée conduit à une proposition de canevas de réflexion qui tente d'intégrer aussi bien l'homme, la machine et l'organisation. Le système G. T. S. Propose des outils d'analyse des données de production et d'exploitation de la technologie de groupe au sein d'une entreprise dans le but de réaliser une meilleure intégration avec les outils préexistants comme la G. P. A. O. Et la C. A. O.
APA, Harvard, Vancouver, ISO, and other styles
45

Petit, Jean-Philippe. "Spécification Géométrique des produits : méthode d'analyse de tolérances. Application en conception assistée par ordinateur." Phd thesis, Chambéry, 2004. http://tel.archives-ouvertes.fr/tel-00417771.

Full text
Abstract:
Un produit mécanique naît d'un besoin et doit remplir des fonctions particulières. Le travail du concepteur consiste à trouver une solution répondant à ces exigences. Il définit alors dans un langage normalisé qui est le tolérancement les variations géométriques limites des surfaces fonctionnelles du mécanisme.<br />Le modèle des domaines jeux et domaines écarts est basé sur le concept des torseurs de petits déplacements. Il permet de modéliser les déplacements relatifs entre deux pièces d'une même liaison ou les déplacements d'un élément géométrique dans sa zone de tolérance. Cette traduction se présente sous la forme de domaines dans l'espace 6D des petits déplacements (3 rotations et 3 translations) traduisant les contraintes en déplacements des entités considérées. Des opérations géométriques sur ces domaines 6D telles que la somme de Minkowski, l'intersection ou l'opération Sweeping-Intersection servent alors à valider le tolérancement choisi. La modélisation 6D peut ensuite être transformée en zones 3D injectées dans le modèle CAO dans le but de renseigner le concepteur sur la pertinence de ses choix.
APA, Harvard, Vancouver, ISO, and other styles
46

Ayoub, Kamel. "Représentation analytique des briques de base, miroirs et différentiels en technologie duale unipolaire et bipolaire." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT033H.

Full text
Abstract:
La conception actuelle des circuits intégrés exige une modélisation donnant une bonne représentation fonctionnelle des composants dans leur environnement. Vu la taille et la complexité croissante des circuits, il faut pallier les temps de simulation devenus de plus en plus longs (PSpice, SABER) tout en évitant les problèmes de convergence. Il est donc nécessaire d'établir des modèles comportementaux représentatifs et rapides. Pour cela, on choisit d'élaborer une bibliothèque de macromodèles analogiques généraux (paramétrables) pour chacune des briques de base (miroirs de courant et différentiels). Ces modèles, valables quelle que soit la zone de fonctionnement, sont communs aux deux technologies (bipolaire et unipolaire). Cette dualité a, d'une part, un caractère pédagogique et permet, d'autre part, de concevoir plus facilement des circuits associant les deux technologies, permettant ainsi de tirer le meilleur parti de chacune d'entre elles (technologie BicMOS). On choisit de réaliser ces modèles sur plusieurs niveaux afin d'optimiser de façon plus structurée les fonctions réalisées. Tout d'abord au niveau du transistor, par l'établissement d'un macromodèle commun à l'ensemble des transistors et qui tient compte de la complémentarité (Tn et Tp). Ensuite, par l'extrapolation de cette analyse au niveau de la brique de base ; en premier lieu, en considérant le composant comme idéal (CAI, analyse au premier ordre), puis en introduisant les effets du second ordre (CAR). Enfin, en prenant en compte l'influence de la dispersion (relative et absolue) des principaux paramètres des transistors sur ces briques de base, faisant ainsi écho aux problèmes actuels de norme et de qualité. Ceci permet de prévoir et d'expliquer les répercussions que peut entraîner la dispersion de ces paramètres aussi bien au niveau de la brique de base qu'à des niveaux plus élevés dans le circuit. Enfin, cette modélisation multi-niveaux pourrait s'étendre à des formes plus complexes (étude du BOTA).
APA, Harvard, Vancouver, ISO, and other styles
47

Batsale, Alain. "Innovation technologique et dynamique industrielle : l'exemple de l'industrie informatique." Poitiers, 2000. http://www.theses.fr/2000POIT4001.

Full text
Abstract:
Ce travail propose une étude empirique de l'industrie informatique. Une première approche pourrait conduire à reprendre les résultats d'études empiriques influencées par l'économie industrielle d'inspiration néoclassique et à conduire une analyse de l'industrie à partir du jeu des forces du marché. Mais cette industrie présente une histoire tumultueuse liée à un rythme élévé d'innovations technologiques. Or, l'approche néoclassique, statique, en termes d'allocations de ressources, peine à rendre compte des effets de l'innovation technologique et de la dynamique qu'elle suscite. C'est pourquoi, l'industrie informatique est abordée ici, à travers la méthodologie proposée par la dynamique industrielle, mettant l'innovation technologique au centre des processus moteurs de l'évolution, en particulier de l'évolution repérée des structures de marché. L'analyse des innovations concernant les deux éléments clés de l'ordinateur, le processeur et le système d'exploitation, permet d'expliquer les mouvements importants qui affectent l'industrie depuis plusieurs décennies et dont les effets vont se faire sentir dans les années qui viennent. L'industrie est présentée à partir des spécificités que constituent une technique, des fonctions productives et un stock de capital productif, et dont les caractéristiques conduisent le rythme et la diffusion du progrès technique. Elle est décrite enfin, plus précisement, à partir de deux éléments spécifiques et qui la caractérisent également, en l'occurence un mode d'innovation technology push et une structure de marché oligopolistique.
APA, Harvard, Vancouver, ISO, and other styles
48

Kocon, Sylvain. "Conception d'un calculateur massivement parallèle à usage général à base de technologies optiques et optoélectroniques 3D." Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0011.

Full text
Abstract:
L'apparition des limitations au niveau des interconnxions et, en particulier dans les supercalculateurs parallèles où les échanges de données deviennent prohibitifs, constitue une réelle butée aux performances globales des machines. Notre objectif est d'étuider une architecture de calculateur massivement parallèle sur la base d'un mariage idéal entre l'électronique et l'optique. L'architecture proposée se compose de processus électroniques (PEs) et utilise les atouts de l'optique pour les communications entre les PEs. Les applications visées conduisent au développement d'un réseau d'interconnexionx de type réseau multi-étage "shuffle-exchange" enrichi par des connxions de voisinage. Le réseau est validé par l'exécution s'applications telles que le produit matrice-vecteur et la transformée de Fourier à une et deux dimensions. Les possibilités d'intégration de la technologie électronique à moyen terme permet d'envisager un parallélisme de 128 x 128 PEs d'une complexité fonctionnelle équivalente à des microprocesseurs 8 bits (~5000 transistors). Une fréquence d'horloge acceptable pour les PEs pourrait être comprise entre 10 et 100 MHz. Le procédé de réalisation du réseau de communications inter-PEs proposé utilise des matrices de microlentilles et de microprismes. Son principe, validé expérimentalement, autorise un parallélisme 128 x 128.
APA, Harvard, Vancouver, ISO, and other styles
49

Svensson, Gary. "Digitala pionjärer : datakonstens introduktion i Sverige /." Stockholm : Carlssons, 2000. http://catalogue.bnf.fr/ark:/12148/cb390025443.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Ramparany, Fano Jorrand Philippe Crowley James L. Lux Augustin. "Perception multisensorielle de la structure géométrique d'une scène." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00332708.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography