Academic literature on the topic 'Cartes perforées, Systèmes de'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Cartes perforées, Systèmes de.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Cartes perforées, Systèmes de"

1

Belzile, Marcel J. "Aperçu des études menées par la section québécoise de l’Inventaire des terres du Canada." Cahiers de géographie du Québec 17, no. 41 (April 12, 2005): 331–38. http://dx.doi.org/10.7202/021121ar.

Full text
Abstract:
C'est au cours de la conférence « les ressources et notre avenir » tenue en octobre 1961, que les gouvernements fédéral et provinciaux ont entrepris de procéder à l'inventaire des ressources renouvelables au Canada. Des méthodes de travail basées sur les caractères biophysiques ont été mises au point dès 1964 afin d'obtenir des systèmes de classement uniformes pour tout le Canada, dans les secteurs de l'agriculture, de la forêt, de la récréation, de la faune ongulée et de la faune sauvagine. En septembre 1969, la section québécoise de l'Inventaire des Terres du Canada publie un document intitulé « Les systèmes de classement des possibilités d'utilisation des sols », suivi, en juin 1971, de « La méthodologie du zonage des terres selon leurs potentiels », ouvrage élaboré à partir des cartes originales de potentiel. En mai 1972, paraît une carte d'analyse des terres de la région de l'Outaouais (sud-ouest du Québec) qu'accompagne un rapport d'analyse de la région, considérée comme région pilote. La section québécoise de l'I.T.C. possède maintenant 3 257 cartes dont 662 cartes d'utilisation du sol, 440 cartes agricoles, 407 cartes forestières, 649 cartes de la récréation, 298 cartes de la faune ongulée, 550 cartes de la faune sauvagine et 251 cartes de zonage.
APA, Harvard, Vancouver, ISO, and other styles
2

Parvillers, Olivier. "Les systèmes de visualisation de cartes électroniques et d'information - ECDIS." Revue internationale de géomatique 12, no. 3 (September 30, 2002): 291–310. http://dx.doi.org/10.3166/rig.12.291-310.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Nienkemper, Manuel, Benedict Wilmes, Stéphane Renger, Mathilde Mazaud-Schmelter, and Dieter Drescher. "Amélioration de la stabilité des mini-implants orthodontiques." L'Orthodontie Française 83, no. 3 (September 2012): 201–7. http://dx.doi.org/10.1051/orthodfr/2012021.

Full text
Abstract:
Dans le domaine de l’ancrage squelettique, le recours aux mini-implants orthodontiques ne cesse de se développer. Cependant, le principal problème reste leur taux relativement élevé de perte de 16,4 %. Si l’on analyse les publications traitant des causes de perte d’implants, il s’avère que l’insertion de mini-implants plus importants en taille dans la région antérieure et médiane du palais aboutit à une grande stabilité ainsi qu’à un taux élevé de succès. De plus, la stabilité du couplage mini-implant/suprastructure est déterminante dans le succès. L’utilisation de mini-implants dont la tête possède un pas de vis interne permet la mise en place vissée stable de différents types d’abutments (piliers). Grâce à de longues plaques perforées spéciales, il est possible de relier deux mini-implants entre eux et d’augmenter ainsi leur stabilité. Un système d’éléments préfabriqués permet l’élaboration rapide de différents types de mécaniques orthodontiques efficaces (systèmes mécaniques efficaces).
APA, Harvard, Vancouver, ISO, and other styles
4

BRUNSCHWIG, G., B. CHEVILLOT, C. SIBRA, and Y. MICHELIN. "Représentation cartographique d’activités d’élevage : exemple de l’élevage bovin laitier pour la production de fromages d’AOC dans le Massif central." INRAE Productions Animales 17, no. 2 (May 20, 2004): 109–22. http://dx.doi.org/10.20870/productions-animales.2004.17.1.3559.

Full text
Abstract:
La cartographie est en général peu utilisée dans le domaine de l’élevage, bien qu’elle présente l’intérêt de visualiser la spatialisation de ce type d’activité nécessairement relié à l’espace (pâturage, récolte de fourrages…). Nous avons choisi d’utiliser des méthodes cartographiques pour conduire une recherche sur les systèmes d’élevage bovin dont le lait est destiné à la production des fromages d’AOC du Massif central. Les informations collectées sont issues d’enquêtes à dires d’experts, de données géographiques et de fichiers administratifs ; elles ont été traitées à l’aide d’un Système d’Information Géographique (SIG) et d’analyses statistiques. Cette démarche a permis d’obtenir différents types de cartes : des cartes synthétiques (typologie de zones d’élevage laitier), des cartes thématiques spatialisant des variables qualitatives (ration hivernale) ou quantitative, en valeur relative (proportion de prairies permanentes dans la SAU) ou absolue (quotas laitiers communaux). Pour chacune des huit AOC fromagères concernées, des cartes spécifiques, obtenues par extraction, ont ensuite permis d’appréhender leur cohérence. L’outil cartographique s’est avéré bien adapté à l’étude d’activités d’élevage associées à une appellation, dans la mesure où, d’une part, le fondement d’une AOC est nécessairement relié à sa zone de production et où, d’autre part, sa cohérence, notion par nature complexe, découle de plusieurs facteurs. Cet outil permet de plus d’accéder rapidement à une vision d’ensemble et de réaliser des analyses spatiales de différents thèmes, seuls ou combinés entre eux. Plus généralement, l’usage de la cartographie que nous présentons ici peut être considéré comme une proposition méthodologique intéressante pour l’étude de certaines activités d’élevage.
APA, Harvard, Vancouver, ISO, and other styles
5

SAUNIER, K., R. JULIEN, and H. LEVÉZIEL. "Recherche des gènes impliqués dans la synthèse des antigènes du système du groupe sanguin C bovin (EAC)." INRAE Productions Animales 13, HS (December 22, 2000): 145–47. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3827.

Full text
Abstract:
L’intérêt de l’INRA pour les systèmes de groupes sanguins bovins remonte à une quarantaine d’années. Les travaux et moyens engagés alors aboutirent à l’obtention de riches données sérologiques ainsi qu’à des données génétiques préliminaires. L’apparition des premières cartes génétiques permit ensuite la localisation de la plupart de ces systèmes. Néanmoins, la nature moléculaire des antigènes sanguins et leur rôle biologique demeurent méconnus. Nous avons choisi d’étudier le groupe sanguin C (EAC), système complexe très polymorphe, cartographié sur le chromosome 18 et codé par au moins deux gènes contigus. Des gènes candidats positionnels et fonctionnels qui pourraient coder pour EAC ont été définis. La construction, en cours, d’un contig de BAC bovins recouvrant la région de EAC, couplée à des analyses de liaisons génétiques a permis de cloner certains de ces candidats et de mieux délimiter la zone d’intérêt. La construction du contig doit être achevée et les candidats obtenus ainsi que les EST de la région devront être testés. Des expérimentations biochimiques viendront compléter et enrichir les données génétiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Blanchon, David, and Jean-Paul Bravard. "La stabilité des formes fluviales de l’Orange, entre variabilité naturelle et impacts des grands barrages (secteur Boegoeberg-Augrabies, Afrique du Sud)." Géographie physique et Quaternaire 61, no. 1 (March 26, 2009): 21–37. http://dx.doi.org/10.7202/029568ar.

Full text
Abstract:
RésuméLe fleuve Orange (Afrique du Sud) est l’un des systèmes fluviaux les plus aménagés au monde : les barrages hydroélectriques ont modifié le volume d’écoulement du fleuve et son débit solide a diminué depuis les années 1930. Plus encore, dans son cours moyen inférieur (secteur d’Upington), le fleuve a été contraint entre des digues de 5 à 10 m de hauteur, des chenaux secondaires ont été remplis pour permettre le développement agricole et plus de 10 déversoirs de bas niveau ont été construits à travers le chenal. Dans des conditions similaires, des changements géomorphologiques visibles et rapides (incision du chenal, alluvionnement, etc.) ont été enregistrés dans divers systèmes fluviaux en région semi-aride. Pourtant, l’étude de cartes anciennes (des années 1920) et de photographies aériennes (à partir de 1937) montre une stabilité remarquable des formes fluviales, et ce, même à petite échelle : des bancs sableux et des seuils rocheux sont facilement reconnaissables dans le chenal principal. L’objectif de cet article est d’explorer les différentes hypothèses expliquant cette stabilité, en utilisant le concept de discontinuité et la théorie de la catastrophe, et de confronter les résultats avec les travaux récents sur le fleuve Orange. Notre recherche est basée sur le calcul des puissances spécifiques des crues vicennales, la reconnaissance de terrain (entre 2000 et 2003) et le prélèvement de sédiments, en utilisant la méthode de la courbe de Passega. Nous avons également effectué des comparaisons entre les photographies aériennes et les cartes anciennes et les photographies aériennes les plus récentes à l’aide des outils SIG (MapInfo). À micro-échelle, la progression et la destruction des roseaux (Phragmites australisetArundo donax) a été utilisée comme indicateur des changements géomorphologiques du chenal. Les résultats montrent que les concepts de stabilité et d’équilibre, et les changements géomorphologiques fluviaux sont plus complexes qu’une simple comparaison statique.
APA, Harvard, Vancouver, ISO, and other styles
7

STEIER, G. "La gestion des populations : La circulation de l’information génétique et sa structuration sous forme d’une base de données." INRAE Productions Animales 5, HS (July 30, 2020): 223–27. http://dx.doi.org/10.20870/productions-animales.1992.5.hs.4294.

Full text
Abstract:
Le Département de Génétique Animale a été précurseur de l’informatique à l’INRA sous l’impulsion de J. Poly, B. Vissac et M. Poutous dans les années 50 ; à cette époque ils réalisaient des calculs sur IBM-704 et 705 et faisaient gérer des fichiers importants sur cartes perforées. En octobre 1962, les premiers équipements de calculs internes sont installés sous forme d’un IBM 1620 qui traite non seulement les données zootechniques mais également des données administratives. En janvier 1968, grâce aux crédits de la nouvelle loi sur l’élevage, est installé l’IBM 360-50, ordinateur de haut de gamme pour l’époque car répondant par exemple aux importants besoins informatiques d’organismes financiers comme la Caisse des Dépôts et Consignations qui en fut dotée au même moment. Associés à du personnel spécialisé regroupé dans une Unité du Département, dénommée Centre de Traitement de l’information génétique (CTIG), ces moyens modernes de calcul permettaient au Département de remplir ses missions au bénéfice des acteurs de l’Amélioration Génétique. Les biométriciens de l’INRA auront également accès à ce matériel avant d’être dotés de moyens propres en 1979. Le Département de génétique animale a donc joué un rôle moteur dans le développement des moyens informatiques de l’Institut. Cela lui permet aujourd’hui, en partenariat avec les Instituts techniques et le ministère de l’Agriculture, de disposer des outils nécessaires pour améliorer les méthodes de gestion et de sélection des populations d’animaux domestiques.
APA, Harvard, Vancouver, ISO, and other styles
8

Martinier, Vincent. "Les cartes numériques HD, le futur de la mobilité : quelle valeur ajoutée aux systèmes de conduite automatisés ?" Annales des Mines - Responsabilité et environnement N° 94, no. 2 (2019): 50. http://dx.doi.org/10.3917/re1.094.0050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Gormezano, Nathalie, and Sandrine Peraldi. "Terminologies et nouvelles technologies." La terminologie dans les programmes de traduction 57, no. 1 (October 10, 2012): 248–63. http://dx.doi.org/10.7202/1012752ar.

Full text
Abstract:
À l’ère de la mondialisation, les modes d’accès à l’information sont en pleine mutation, que ce soit dans l’apprentissage ou dans l’exploitation des connaissances. La gestion de l’information est d’autant plus complexe qu’elle se conjugue avec la gestion d’un temps qui semble « accéléré », en raison, d’une part, des relations multiples entre les systèmes et les individus et, d’autre part, de la demande de plus en plus pressante de rapidité dans la gestion des affaires, ceci afin de limiter les coûts. Dans cet univers mondialisé, mouvant, multiculturel et multilingue, la recherche en traductologie apparaît comme un lieu où peuvent être élaborées des propositions de solutions au service des acteurs de ce monde en mouvement. De fait, la gestion des connaissances dans des univers culturels différents est une activité de recherche de longue date dans le domaine de la traductologie ; la terminologie moderne donne lieu, depuis plusieurs années, à des développements intéressants autour des bases de données ; la linguistique, notamment grâce à la sémantique, a initié depuis quelques années également des travaux sur les bases de connaissances et les cartes sémantiques intégrées. De leur côté, les sciences des nouvelles technologies et en particulier la recherche sur les systèmes d’information ont développé des systèmes de bases de connaissances multimédias orientées métiers. C’est au regard de ces travaux et de leurs possibles interactions que le centre de recherche de l’ISIT, le CRATIL (Centre de recherche appliquée sur la traduction, l’interprétation et le langage) a mis en place des projets de recherche pluridisciplinaires où les nouvelles technologies et les terminologies liées à des métiers spécifiques sont devenues les outils de l’innovation au service de la société de la connaissance multilingue et multiculturelle.
APA, Harvard, Vancouver, ISO, and other styles
10

Leveau, Philippe. "Occupation du sol, géosystèmes et systèmes sociaux. Rome et ses ennemis des montagnes et du désert dans le Maghreb antique." Annales. Histoire, Sciences Sociales 41, no. 6 (December 1986): 1345–58. http://dx.doi.org/10.3406/ahess.1986.283352.

Full text
Abstract:
« Entre le nomade redoutable par sa mobilitéet le montagnard inaccessible dans ses hauteurs,le paysan des plaines et des collinesméditerranéennes avait presque toujourssuccombé » (J. DESPOIS, « Géographie et histoireen Afrique du Nord, retouche à unethèse », dans Éventail de l'histoire vivante.Hommage à Lucien Febvre, t. 1, Paris, 1953,p. 194).Pour l'historien de l'Antiquité, l'étude de l'occupation du sol ne peut être réduite à la confection de cartes de localisation des sites. De natures différentes, les sites s'organisent en réseaux qui nous renseignent sur l'organisation des espaces ruraux. Les différenciations dans l'organisation des campagnes permettent d'individualiser et de caractériser des systèmes sociaux et des périodes chronologiques. L'étude de l'occupation du sol est donc obligatoirement diachronique (on ne peut entreprendre une prospection en étant fermé à tout vestige d'occupation qui paraît relever d'une période autre) et inter- ou même trans-disciplinaire. Il faut être, comme l'historien, sensible aux successions : succession des événements, succession des formes sociales, succession des paysages ; il faut être géographe ; il faut être attentif aux structures sociales.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Cartes perforées, Systèmes de"

1

Neumann, Cédric. "De la mécanographie à l’informatique : les relations entre catégorisation des techniques, groupes professionnels et transformations des savoirs managériaux." Paris 10, 2013. http://www.theses.fr/2013PA100149.

Full text
Abstract:
L’histoire du traitement de l’information s’est attachée à réinscrire l’apparition et l’utilisation des ordinateurs dans un mouvement plus large de mécanisation des tâches administratives et plus généralement de l’écrit. Cette perspective féconde a permis de relativiser les analyses portant sur la « société de l’information » dans lesquelles l’utilisation des ordinateurs est un phénomène sans antécédents qui entraîne des transformations brutales et inédites des sociétés grâce à la production accrue d’informations et la rapidité de leur circulation. Cependant la continuité entre les machines mécanographiques et les ordinateurs, qui se vérifie tant au niveau des constructeurs qu’à celui des clients et de leurs utilisations, n’explique pas pourquoi durant les années 1960 les ordinateurs n’ont plus été conçus comme un développement de la mécanographie mais comme un phénomène radicalement différent de celle-ci. C’est précisément la construction de cette différence qui constitue l’objet principal de notre thèse. Pour cela notre travail porte sur une période relativement courte, comparée aux précédentes analyses, allant de 1945 à 1975 – qui se caractérise dans un premier temps par l’extension de l’utilisation des machines à cartes perforées puis leur remplacement progressif par des ordinateurs – et sur un espace délimité, la France, dans lequel l’invention d’un nouveau terme, l’informatique, marque la différence symbolique entre la mécanographie et les ordinateurs. Pour comprendre comment l’informatique a pu apparaître comme une « révolution » par rapport à la mécanographie, il ne faut pas limiter l’étude aux usages des différents matériels mais restituer les relations d’équivalence existant entre les machines, le personnel les utilisant, les différents domaines d’activité des entreprises et les savoirs que celles-ci mobilisent. C’est la transformation de ces relations qui permet d’expliquer que des utilisations comparables des différents matériels se soient accompagnées de la construction de catégories hétérogènes et antinomiques que sont la mécanographie et l’informatique. Nous montrons ainsi que la notion de mécanographie, utilisée pour désigner l’ensemble des matériels participant à la rationalisation des opérations administratives, se situe dans la stricte continuité des principes de l’OST. La mécanographie trouve sa principale justification dans l’augmentation de la productivité du travail administratif qui repose sur l’étroite spécialisation des mécanographes et l’utilisation d’un personnel féminin pour les tâches les plus dévalorisées. Le personnel mécanographe ne reçoit qu’une brève formation assurée le plus souvent par les constructeurs (ch. 1). A l’inverse, l’utilisation des ordinateurs ne renvoie plus uniquement à la productivité mais à l’amélioration de la qualité de la gestion. C’est l’association étroite des ordinateurs aux tâches de conception et de direction qui donne naissance à la notion d’informatique dans le champ économique et aux croyances constituant la « révolution informatique » (ch. 2). Dans ces conditions, les individus travaillant sur les ordinateurs ne sont plus considérés comme un personnel d’exécution mais de conception ce qui conduit à la constitution d’un marché du travail des informaticiens autonome de celui des machines. L’assimilation des informaticiens à des cadres et l’augmentation du capital culturel requis contribue à exclure la majorité des anciens mécanographes des emplois liés aux ordinateurs et approfondir la différence entre informatique et mécanographie (ch. 3). Les propriétés distinctives des informaticiens par rapport aux mécanographes sont renforcées par la création de formations supérieures en informatique de gestion qui doivent alimenter le marché du travail des spécialistes. Néanmoins, le contenu de ces formations est un enjeu de lutte entre les universitaires les assurant et les employeurs (ch. 4). Enfin, à la différence de la mécanographie, l’informatique est constituée comme un outil spécifique à l’ensemble des cadres. D’une part, parce que les grandes écoles introduisent l’enseignement de l’informatique dans leurs cursus, transformant celle-ci en un savoir-faire incontournable pour leurs élèves (ch. 5), d’autre part, parce que la transformation des cadres en « utilisateurs » par l’intermédiaire de la formation permanente est conçue comme le moyen de parvenir à l’utilisation optimale de l’informatique (ch. 6)
The history of information processing considers that the apparition and use of computers fall within a broader movement of mechanization of administrative tasks and more generally of writing. This vivid prospect allows relativizing analyses dealing with the « society of information » in which the use of computers is an unprecedented phenomenon, leading to brutal and first ever society transformations, thanks to a growing production of information circulating fast. The continuity between the « mécanographiques » machines and computers can be seen at the level of the manufacturers as well as at the level of the clients and their uses. It does not explain however why computers have no longer been seen as a development of « mécanographie » but as a radically different phenomenon in the 1960s. This thesis will precisely deal with the elaboration of this difference. For that purpose, our work will analyze a relatively short period compared to previous analysis: 1945 to 1975. This period is first characterized by the extension of the use of punched cards machines, then by their progressive replacement by computers. It happened in a delimited area, France, in which the invention of a new term, « informatique » highlights the symbolic difference between « mécanographie » and computers. To understand why « informatique » could appear as a « revolution » compared to « mécanographie », one should not restrict the analysis to the uses of the different equipment but restitutes the relations of equivalence existing between the machines, the staff using it, the different activity fields of companies, and the knowledge the latter require. This transformation of these relations explains why comparable uses of different equipment have actually come along with the elaboration of so heterogeneous and antinomic categories as « mécanographie » and « informatique ». We show that the notion of « mécanographie », used to describe the range of equipment rationalizing the administrative tasks is aligned with the principles of scientific management. « La mécanographie » is primarily justified by the increase of the productivity of administrative work. The latter relies on a narrow specialization of «mécanographes » and the use of a female staff for the most depreciated tasks. The « mécanographe » staff is briefly trained, most of the time by the manufacturers themselves (ch. 1). On the contrary, the use of computers is no longer only linked to productivity but to the improvement of management quality. The close association of computers with conception and direction tasks give birth to the notion of « informatique » in the economic field and to beliefs inherent to the «révolution informatique » (ch. 2). In this context, individuals working on computers are no longer considered like a staff executing but conceiving, which leads to the creation of a labor market of computer engineers autonomous from the one of the machines. The assimilation of computer engineers to executives and the rise of the cultural capital required contributed to exclude the majority of former « mécanographes » from computer-related jobs and to increase the difference between « informatique » and « mécanographie » (ch. 3). The distinct properties of computer engineers compared to « mécanographes » are reinforced by the creation of university-level training in computer engineering to supply the labor market of specialists. Nonetheless, the content of these trainings shows the struggling between the university professors teaching those and the employers (ch. 4). Finally, as opposed to « mécanographie », « informatique » is considered as a specific tool for the majority of the executives. This is due on one hand to the « grandes écoles » introducing the teaching of computer engineering in their curriculum, transforming the latter in a mandatory know-how for the students (ch. 5); and on the other hand to the transformation of executives into « users » via the permanent training, conceived as a means to get optimal use of «’informatique » (ch. 6)
APA, Harvard, Vancouver, ISO, and other styles
2

Richomme, Paulette. "Une entreprise à l’épreuve de la guerre et de l’Occupation : la compagnie des machines Bull, 1939-1945." Paris 10, 2007. http://www.theses.fr/2007PA100208.

Full text
Abstract:
Cette thèse est consacrée à l’étude de la vie de la Cie des Machines Bull, constructeur de machines à cartes perforées, pendant la 2ème Guerre Mondiale. Dans les années trente, cette industrie ne comportait que trois constructeurs, dont deux étaient américains, l’I. B. M. Corp. Et la Sté POWERS, la seule française étant la Cie Bull, la plus modeste aussi, créée en 1931. Après l’occupation de la France par les Allemands, la Cie Bull fut convoitée à la fois par les services mécanographiques de la Wehrmacht (O. K. W. ) et par une grosse entreprise allemande, la Sté Wenderer Werke , de Chemnitz. Pour ne pas tomber entre les mains de l’O. K. W. , la Cie Bull choisit de négocier avec la Wanderer-Werke avec laquelle elle conclut un contrat qui n’était pas désavantageux pour elle et dont, de report en report, la signature n(intervint que le 30 décembre 1942, Jacques Callies – P. D. G. De Bull – s’y trouvant contraint pour éviter les réquisitions de son personnel pour les S. T. O. Pendant tout ce temps de reports, la Cie Bull put travailler pour sa clientèle française et en particulier pour l’E. M. A. (Service National des Statistiques) et le Contrôleur Général Carmille qui préparaient une mobilisation clandestine pour soutenir les troupes alliées lors de leur débarquement. Après l’Armistice, Jacques Callies dut d’abord se justifier devant une Commission d’Epuration Interne à l’entreprise qui lui décerna une attestation toute à son honneur. Puis, elle fut citée devant la Commission de Confiscation des Profits Illicites. Bien que la Compagnie n’eut livré à la Wanderer-Werke que très peu de matériels elle dut reverser au trésor une partie des bénéfices encaissés. Mais, grâce à l’habilité et à la ténacité de Jacques Callies et de son équipe de direction, la Cie Bull sortit de la guerre nettement plus puissante qu’elle n’y était entrées, ayant créé une industrie française des machines à cartes perforées, affranchie de tout dépendance étrangère.
APA, Harvard, Vancouver, ISO, and other styles
3

Lecomte, Sylvain. "COST-STIC Cartes Orientées Services Transactionnels et Systèmes Transactionnels Intégrant des Cartes." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 1998. http://tel.archives-ouvertes.fr/tel-00457654.

Full text
Abstract:
Le domaine d'application des cartes à microprocesseur est de plus en plus vaste (le secteur monétaire, la téléphonie, la santé). Dorénavant, la carte s'intègre dans des systèmes distribués (paiement sur Internet, téléphonie mobile). Ainsi, malgré l'apparition de nouvelles cartes utilisant des langages de programmation répandus (comme Java pour la JavaCard), le développement des applications carte, dans un milieu distribué et très sujet aux pannes, se révèle de plus en plus complexe. Le modèle transactionnel, de par ses propriétés (Atomicité, Cohérence, Isolation et Durabilité) représente une bonne solution au traitement de ces problèmes. L'implantation de ce modèle dans les cartes à microprocesseur impose l'adaptation de deux mécanismes (la reprise sur panne, et le contrôle de concurrence sur les données) bien connus des systèmes transactionnels classiques. Pour cela, il a notamment fallu tenir compte de la faible taille mémoire disponible et du processeur peu puissant. L'utilisation de cartes gérant les mécanismes cités précédemment (la COST) dans des systèmes distribués s'effectue grâce à une architecture (appelée STIC), utilisant un service de validation distribuée (OTS pour CORBA). Un composant d'adaptation prend en charge les contraintes de la carte (notamment en terme de protocole de communication), de manière à ne pas modifier l'architecture des systèmes existants. Une maquette, basée sur la JavaCard et le service OTS de CORBA, a été réalisée dans le but de simuler une application de paiement sur Internet.
APA, Harvard, Vancouver, ISO, and other styles
4

Chen, Linxiao. "Cartes planaires aléatoires couplées aux systèmes de spins." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS096/document.

Full text
Abstract:
Cette thèse vise à améliorer notre compréhension des cartes planaires aléatoires décorées par les modèles de physique statistique. On examine trois modèles particuliers à l'aide des outils provenant de l'analyse, de la combinatoire et des probabilités. Dans une perspective géométrique, on se concentre sur les propriétés des interfaces et les limites locales des cartes aléatoires décorées. Le premier modèle consiste en une famille de quadrangulations aléatoires du disque décorées par un modèle de boucles O(n). Après avoir complété la preuve de son diagramme de phase initiée par [BBG12c] (chap. II), on étudie les longueurs et la structure d'imbrication des boucles dans la phase critique non-générique (chap. III). On montre que ces statistiques, décrites par un arbre étiqueté, convergent en loi vers une cascade multiplicative explicite lorsque le périmètre du disque tend vers l'infini. Le deuxième modèle (chap. IV) consiste en une carte planaire aléatoire décorée par la percolation de Fortuin-Kasteleyn. On complète la preuve de la convergence du modèle esquissée dans [She16b] et établit un certain nombre de propriétés de la limite. Le troisième modèle (chap. V) est celui des triangulations aléatoires du disque décorées par le modèle d'Ising. Il est étroitement lié au modèle des quadrangulations décorées par un modèle O(n) quand n=1. On calcule explicitement la fonction de partition du modèle muni des conditions au bord de Dobrushin au point critique, sous une forme exploitable pour les asymptotiques. À l'aide de ces asymptotiques, on étudie le processus d'épluchage le long de l'interface d'Ising dans la limite où le périmètre du disque tend vers l'infini. Mots clés. Carte planaire aléatoire, modèle de boucles O(n), percolation de Fortuin-Kasteleyn, modèle d'Ising, limite locale, géométrie d'interfaces
The aim of this thesis is to improve our understanding of random planar maps decorated by statistical physics models. We examine three particular models using tools coming from analysis, combinatorics and probability. From a geometric perspective, we focus on the interface properties and the local limits of the decorated random maps. The first model defines a family of random quadrangulations of the disk decorated by an O(n)-loop model. After completing the proof of its phase diagram initiated in [BBG12c] (Chap. II), we look into the lengths and the nesting structure of the loops in the non-generic critical phase (Chap. III). We show that these statistics, described as a labeled tree, converge in distribution to an explicit multiplicative cascade when the perimeter of the disk tends to infinity. The second model (Chap. IV) consists of random planar maps decorated by the Fortuin-Kasteleyn percolation. We complete the proof of its local convergence sketched in [She16b] and establish a number of properties of the limit. The third model (Chap. V) is that of random triangulations of the disk decorated by the Ising model. It is closely related to the O(n)-decorated quadrangulation when n=1. We compute explicitly the partition function of the model with Dobrushin boundary conditions at its critical point, in a form ameneable to asymptotics. Using these asymptotics, we study the peeling process along the Ising interface in the limit where the perimeter of the disk tends to infinity.Key words. Random planar map, O(n) loop model, Fortuin-Kasteleyn percolation, Ising model, local limit, interface geometry
APA, Harvard, Vancouver, ISO, and other styles
5

Tayong, Boumda Rostand. "Propriétés acoustiques de systèmes incorporant des plaques micro-perforées et des matériaux absorbants sous forts niveaux d'excitation." Thesis, Dijon, 2010. http://www.theses.fr/2010DIJOS066/document.

Full text
Abstract:
Ce travail de thèse a pour objectif l'étude des propriétés acoustiques de systèmes incorporant des plaques micro-perforées (MPP) et des matériaux absorbants sous forts niveaux d'excitation.Le premier chapitre traite des systèmes composés d'une MPP couplée à une cavité d'air et une paroi rigide. Un modèle analytique intégrant deux paramètres adimensionnels et un nombre de Mach optimal est présenté. La particularité de ce modèle est de décrire la variation du maximum du coefficient d'absorption (coefficient d'absorption à la résonance) avec l'augmentation du niveau d'excitation. Une formule proposée permet de prédire les variations du pic d'absorption avec le nombre de Mach acoustique.Les effets d'interaction entre les perforations sont étudiés sous forts niveaux d'excitation dans le deuxième chapitre. Un modèle basé sur l'approche fluide équivalent est proposé. Dans ce modèle, la tortuosité est corrigée pour prendre en compte les distorsions d'écoulement dues aux effets d'interaction entre perforations et aux effets de turbulence. Cette correction de tortuosité qui n'intègre permet de prédire le comportement de la réactance du système.Les multi-couches composés de MPP et de matériaux poreux sont l'objet d'étude du troisième chapitre. Chaque couche du système est modélisée à forts niveaux d'excitation suivant une loi de Forchheimer. Les différents matériaux sont décrits par la méthode de la matrice de transfert. Le cas où le multi-couche est directement collé à une paroi rigide et le cas où il y a une cavité d'air avant la paroi rigide sont examinés.Dans le dernier chapitre, l'étude sur la transparence acoustique à forts niveaux est initiée. Les perspectives de ce travail sont nombreuses et prometteuses pour l'acoustique des transports
This work deals with the acoustical properties of systems incorporating Micro-Perforated Panels (MPP) and absorbing materials under high level of excitation.In the first chapter, absorbent systems composed of an air-cavity backed MPP are studied at high level of excitations. An analytical model involving two dimensionless parameters and an optimum Mach number is proposed. This model describes the behavior of the maximum of absorption coefficient (absorption coefficient at the resonance) with respect to the Mach number inside the perforations. A formula is proposed that predicts the variations of the absorption peak with the acoustical Mach number.In the second chapter, the holes interaction effects are studied theoretically and experimentally under high levels of excitations. Following an equivalent fluid approach, a model for which the tortuosity is corrected to account for the holes interaction effects coupled to the jet-like effects is developed. Multi-layered absorbents composed of MPP and porous materials are then studied under high level of excitations. The case where the multi-layers are directly attached to a rigid wall and the case where there is an air cavity before the rigid wall are examined. Forchheimer's law is used to model each medium of the multi-layer and the use of the transfer matrix method is made to account for these media.Sound transmission study under high level of excitation is introduced. The perspectives of this work are numerous and promising in the acoustics of transportation systems applications
APA, Harvard, Vancouver, ISO, and other styles
6

Demmel, Sébastien. "Construction de cartes étendues des difficultés de la route fondée sur la fusion de cartes locales." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0051.

Full text
Abstract:
Cette thèse investigue l'utilisation et les performances des systèmes coopératifs pour l'estimation en temps réel du risque routier. Nous offrons en premier lieu une discussion sur les limitations et performances des communications inter-véhiculaire (CIV) et construisons ensuite un modèle à partir de données empiriques collectées sur les pistes d'essais de versailles-Satory. Nos résultats sont plus pessimistes que la littérature existante, suggérant que les limitations des CIV ont été sous-estimées. En second lieu, nous développons une architecture de simulation pour les systèmes coopératifs et la perception augmentée. Cette architecture est mise en oeuvre pour obtenir de nouveaux résultats quant aux bénéfices d sécurité des systèmes coopératifs, particuluèrement une application de freinage d'urgence dans une file de véhicules. D'abord, nous confirmons de précédents résultats sur la réduction du nombre de collisions mais soulevons des doutes quant à la réduction de la gravité de ces collisions. Ensuite, nous comparons l'estimation du risque basée sur des approches coopératives (avec une carte augmentée) et non-coopératives (avec des capteurs exclusivement locaux) dans ce même scénario. Nos résultats montrent que l'utilisation de l'approche coopérative est systématiquement meilleure que la non-coopérative, allant jusqu'à tripler le délai d'avertissement fourni aux conducteurs avant l'accident. Les limitations des CIV n'ont pas eu d'impact sur ce résultat, mais cette conclusion pourrait n'être valide que pour le scénario considéré. Enfin, en dernier lieu, nous proposons une nouvelle approche utilisant la perception augmentée pour la détection des presque-accidents
This thesis investigates the use and performance of augmented perception (Cooperative Systems) for assessment of raod risk. We provide a discussion on intervehicular communications (IVC) limitations and performance model built to incorporate them, created from empirical data collected on the tracks. Our results are more pessimistic than existing literature, suggesting IVC limitations have been underestimated. Then, we develop a CS/Augmented perception simulation architecture. This architecture is used to obtain news results on the safety benefits of a cooperative safety application. At the first, we confirm earlier results in terms of crashes numbers decrease, but raise doubts on benefits in etrms of crashes' severity. Then, augmented and single-vehicule perceptions are compared in a reference driving scenarion for risk assessment. Our results show that augmented perception performance, although this might be valid only for our specific scenario. Eventually, we propose a new approach using augmented perception to identify road risk through a surrogate: near-miss events
APA, Harvard, Vancouver, ISO, and other styles
7

Pouget, Julien. "Test des systèmes sur puce : ordonnancement et exploration de l'espace des solutions architecturales." Montpellier 2, 2002. http://www.theses.fr/2002MON20094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Mariani, Robert. "Contribution à la lecture automatique de cartes." Rouen, 1997. http://www.theses.fr/1997ROUES090.

Full text
Abstract:
Un projet de lecture automatique de cartes a débuté à l'institut Geographique National (IGN) en 1991. L'objectif de ce projet est de fournir une plate-forme de conversion automatique des cartes géographiques aux 1 : 25000 en données vecteurs manipulables par un système d'information géographique (SIG). L’IGN étant un producteur de cartes, nous travaillons directement sur les planches mères, et évitons ainsi le problème de séparation des couleurs. Les planches sont scannées en niveau de gris à 50 microns. Le travail a porté sur la définition et la segmentation des textures linéaires de la carte, ainsi que l'apprentissage et la segmentation des textures bidimensionnelles de la carte, l'extraction, la reconstruction et l'attribution du réseau hydrographique et routier. Les textures linéaires sont définies par des grammaires attribuées et la reconnaissance s'effectue par programmation dynamique (appariement de modelés élastiques) tolérante aux omissions, distorsions et bruits. Les textures 2D sont décrites par un graphe planaire obtenu par triangulation de Delaunay. Cette description structurelle est ensuite apprise par des réseaux de neurones, qui effectueront une classification de régions homogènes. Ces dernières sont obtenues par segmentation de type partage et réunion d'une image en niveau de gris obtenue après un lissage gaussien de l'image initiale. A la fin, une étape de régularisation est réalisée par relaxation probabiliste et croissance de régions. Finalement, les réseaux sont modélisés par des graphes, et leur reconstruction et attribution sont formalisées à l'aide d'outils de la théorie des graphes. La reconstruction utilise à la fois les connaissances sur le graphe du réseau naturel (connexe, peu de cycles, planaire), et sur sa représentation cartographique (lignes tiretées, traits et surfaces texturées). Chaque algorithme est dédié à un type de représentation particulière, ici les lignes tiretées, les traits pleins et les objets surfaciques interrompus. Ces interruptions, spécifiques au réseau hydrographique, sont dues à la présence du réseau routier qui passe par-dessus les cours d'eau. Enfin, l'attribution du graphe du réseau hydrographique, consiste à établir sa structure hiérarchique (cours d'eau temporaires, permanents, importants), identifier les cours d'eau bordés d'arbres, associer la toponymie, et valider la reconstruction avec le graphe du réseau routier.
APA, Harvard, Vancouver, ISO, and other styles
9

Lubaszewski, Marcelo Soares. "Le test unifié de cartes appliqué à la conception de systèmes fiables." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1994. http://hdl.handle.net/10183/26862.

Full text
Abstract:
Si on veut assurer de fawn efficace les tests de conception, de fabrication, de maintenance et le test accompli au cours de l'application pour les systemes electroniques, on est amend a integrer le test hors-ligne et le test en-ligne dans des circuits. Ensuite, pour que les systemes complexes tirent profit des deux types de tests, une telle unification doit etre &endue du niveau circuit aux niveaux carte et module. D'autre part, bien que rintegration des techniques de test hors-ligne et en-ligne fait qu'il est possible de concevoir des systemes pour toute application securitaire, le materiel ajoute pour assurer une haute siirete de fonctionnement fait que la fiabilite de ces systemes est reduite, car la probabilite d'occurrence de fautes augmente. Confront& a ces deux aspects antagoniques, cette these se fixe l'objectif de trouver un compromis entre la securite et la fiabilite de systemes electroniques complexes. Ainsi, dans un premier temps, on propose une solution aux problemes de test hors-ligne et de diagnostic qui se posent dans les &apes intermediaires de revolution vers les cartes 100% compatibles avec le standard IEEE 1149.1 pour le test "boundary scan". Une approche pour le BIST ("Built-In Self-Test") des circuits et connexions "boundary scan" illustre ensuite retape ultime du test hors-ligne de cartes. Puis, le schema UBIST ("Unified BIST") - integrant les techniques BIST et "self-checking" pour le test en-ligne de circuits, est combine au standard IEEE 1149.1, afin d'obtenir une strategie de conception en vue du test unifie de connexions et circuits montes sur des cartes et modules. Enfin, on propose un schema tolerant les fautes et base sur la duplication de ces modules securitaires qui assure la competitivite du systeme resultant du point de vue de la fiabilite, tout en gardant sa silrete inherente.
On one hand, if the goal is to ensure that the design validation, the manufacturing and the maintenance testing, along with the concurrent error detection are efficiently performed in electronic systems, one is led to integrate the off-line and the on-line testing into circuits. Then, for complex systems to make profit of these two types of tests, such unification must be extended from the circuit to the board and module levels. On the other hand, although the unification of off-line and on-line testing techniques makes possible the design of systems suiting any safety application, the hardware added for increasing the application safety also decreases the system reliability, since the probability of occurrence of faults increases. Faced to these two antagonist aspects, this thesis aims at finding a compromise between the safety and the reliability of complex electronic systems. Thus, firstly we propose a solution to the off-line test and diagnosis problems found in the intermediate steps in the evolution towards boards which are 100% compliant with the IEEE standard 1149.1 for boundary scan testing. An approach for the BIST (Built-In Self-Test) of boundary scan circuits and interconnects then illustrates the ultimate step in the board off-line testing. Next, the UBIST (Unified BIST) scheme - merging BIST and self-checking capabilities for circuit on-line testing, is combined with the IEEE standard 1149.1, in order to obtain a design strategy for unifying the tests of interconnects and circuits populating boards and modules. Finally, we propose a fault-tolerant scheme based on the duplication of these kind of modules which ensures the competitivity of the resulting system in terms of reliability at the same time as preserving the inherent module safety.
APA, Harvard, Vancouver, ISO, and other styles
10

Lubaszewski, Marcelo. "Le test unifié de cartes appliqué à la conception de systèmes fiables." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0055.

Full text
Abstract:
Si on veut assurer de facon efficace les tests de conception, de fabrication, de maintenance et le test accompli au cours de l'application pour les systemes electroniques, on est amene a integrer le test hors-ligne et le test en-ligne dans des circuits. Ensuite, pour que les systemes complexes tirent profit des deux types de tests, une telle unification doit etre etendue du niveau circuit aux niveaux carte et module. D'autre part, bien que l'integration des techniques de test hors-ligne et en-ligne fait qu'il est possible de concevoir des systemes pour toute application securitaire, le materiel ajoute pour assurer une haute surete de fonctionnement fait que la fiabilite de ces systemes est reduite, car la probabilite d'occurrence de fautes augmente. Confrontee a ces deux aspects antagoniques, cette these se fixe l'objectif de trouver un compromis entre la securite et la fiabilite de systemes electroniques complexes. Ainsi, dans un premier temps, on propose une solution aux problemes de test hors-ligne et de diagnostic qui se posent dans les etapes intermediaires de l'evolution vers les cartes 100% compatibles avec le standard IEEE 1149. 1 pour le test "boundary scan". Une approche pour le BIST ("Built-In Self-Test") des circuits et connexions "boundary scan" illustre ensuite l'etape ultime du test hors-ligne de cartes. Puis, le schema UBIST ("Unified BIST") - integrant les techniques BIST et "self-checking" pour le test en-ligne de circuits, est combine au standard IEEE 1149. 1, afin d'obtenir une strategie de conception en vue du test unifie de connexions et circuits montes sur des cartes et modules. Enfin, on propose un schema tolerant les fautes et base sur la duplication de ces modules securitaires qui assure la competitivite du systeme resultant du point de vue de la fiabilite, tout en gardant sa sureté inherente
On one hand, if the goal is to ensure that the design validation, the manufacturing and the maintenance testing, along with the concurrent error detection are efficiently performed in electronic systems, one is led to integrate the off-line and the on-line testing into circuits. Then, for complex systems to make profit of these two types of tests, such unification must be extended from the circuit to the board and module levels. On the other hand, although the unification of off-line and on-line testing techniques makes possible the design of systems suiting any safety application, the hardware added for increasing the application safety also decreases the system availability and reliability, since the probability of occurrence of faults increases. Faced to these two antagonist aspects, this thesis aims at finding a compromise between the safety and the reliability of complex electronic systems. Thus, firstly we propose a solution to the off-line test and diagnosis problems found in the intermediate steps in the evolution towards boards which are 100% compliant with the IEEE standard for boundary scan testing. An approach for the BIST (Built-In Self-Test) of boundary scan circuits and interconnects then illustrates the ultimate step in the board off-line testing. Next, the UBIST (Unified BIST) scheme - merging BIST and self-checking capabilities for circuit on-line testing, is combined with the IEEE standard for boundary scan testing, in order to obtain a design strategy for unifying the tests of interconnects and circuits populating boards and modules. Finally, we propose a fault-tolerant scheme based on the duplication of these kind of modules which ensures the competitivity of the resulting system in terms of reliability at the same time as preserving the inherent module safety
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Cartes perforées, Systèmes de"

1

Bootsma, A. Estimated soil moisture conserved by summerfallowing on the Canadian prairies. Ottawa: Research Branch, Agriculture Canada, 1992.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Erle, Schuyler, and Rich Gibson. Google Maps Hacks. O'Reilly Media, Inc., 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Google Maps Hacks: Tips & Tools for Geographic Searching and Remixing. O'Reilly Media, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography