To see the other types of publications on this topic, follow the link: Cartes topographiques.

Dissertations / Theses on the topic 'Cartes topographiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 20 dissertations / theses for your research on the topic 'Cartes topographiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Miller, Marco. "Classification de cartes topographiques matricielles numérisées avec un scanneur : développement d'un algorithme." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape16/PQDD_0009/MQ26595.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Miller, Marco. "Classification de cartes topographiques matricielles numérisées avec un scanneur : développement d'un algorithme." Sherbrooke : Université de Sherbrooke, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Godement, Pierre. "Guidage axonal et formation de cartes topographiques dans le système visuel de la souris." Paris 6, 1990. http://www.theses.fr/1990PA066148.

Full text
Abstract:
Le travail présenté a comme objectif d'élucider la nature des mécanismes mis en jeu dans le développement du système visuel d'un mammifère, la souris, et plus particulièrement dans la formation des cartes topographiques de la rétine, qui sont des caractéristiques de base de ce système. Le guidage des axones rétiniens vers leurs cibles centrales repose sur la capacité du cône de croissance axonal à reconnaitre des indices positionnels dans son environnement ; ces mécanismes de croissance dirigée sont accompagnés de mécanismes permettant une sélection des projections appropriées.
APA, Harvard, Vancouver, ISO, and other styles
4

Jacob, Nicolas. "La carte : Lecture de l'espace et des sociétés." Caen, 2000. http://www.theses.fr/2000CAEN1282.

Full text
Abstract:
La carte topographique est associée depuis ses débuts à la géographie française. Elle fut longtemps le support de la géographie physique, puis humaine au travers du commentaire de carte. La comparaison entre cartes de différentes époques permet de renouer avec l'usage des cartes topographiques anciennes et modernes dans le cadre de la géographie sociale. Au travers de l'analyse des signes conventionnels, des espaces représentés et des choix opérés par le cartographe, chaque carte est représentative de son époque et des sociétés de cette époque. En Basse-Normandie, région historique s'il en est, le retour des pays initie par deux lois sur l'aménagement du territoire puise dans les espaces créés par les hommes depuis l'âge de fer. Les noms de pays aux multiples origines renvoient aux organisations des sociétés tant tribales, que féodales ou monarchiques, qui ont créé ces espaces. Leur usage et leur mention sur les cartes sont également variables selon les préoccupations du moment. Dès la protohistoire, des chemins ont relié ces groupes d'hommes. Les réseaux se sont alors construits au fur et a mesure de l'administration, du commerce ou des menaces. L’absolutisme, l'age industriel puis le post modernisme ont ensuite transforme les réseaux et leurs noeuds de communications. Les petites villes, mais aussi les bourgs, ont de toutes époques formé ces lieux centraux. Lieux d'échanges et lieux de pouvoir, ils ont subi les transformations contemporaines concentration et périurbanisation que les cartes détaillées restituent bien. Leur rôle est désormais déterminant pour constituer des pôles d'influence sur des pays renouvelés qui auront connu toutes les étapes des découpages administratifs successifs depuis l'ancien régime. Les transformations sociales auront alors créé des espaces dont les cartes topographiques anciennes et modernes contribuent l'intelligibilité.
APA, Harvard, Vancouver, ISO, and other styles
5

Ory, Jérémie. "Connaissances pour la conception et la perception de styles topographiques." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1058/document.

Full text
Abstract:
La conception de cartes topographiques de référence est aujourd’hui caractérisée par une multiplication des données géographiques et des services de conception cartographiques de plus en plus distribués. Dans ce contexte, il est nécessaire d’enrichir les connaissances existantes sur la rédaction cartographique afin de préserver la qualité des cartes produites, i.e. qu’elles soient lisibles et efficaces. Nous faisons l’hypothèse que le style topographique facilite la lisibilité et l’efficacité d’une carte grâce à des codes et repères visuels connus des utilisateurs. Nous nous sommes fixés comme objectif de formaliser la notion de style topographique en tant que famille cartographique regroupant des signes graphiques reconnus des utilisateurs afin de pouvoir l’utiliser pour produire de nouvelles cartes topographiques.Dans ce travail de thèse, nous proposons un modèle conceptuel intégrant les concepts clés de signature visuelle et de famille cartographique. Nous validons et instancions ce modèle à travers la mise en place d’entretiens auprès d’experts cartographes et le déploiement de deux expérimentations auprès d’utilisateurs permettant d’étudier les familles cartographiques IGN et Swisstopo. Les résultats obtenus permettent de caractériser les signatures visuelles de chacune de ces deux familles cartographiques. À l’aide de la caractérisation des signatures visuelles de ces deux styles topographiques typiques (IGN-France et Swisstopo), nous proposons des recommandations qui permettraient de produire de nouvelles cartes topographiques pour les deux cas d’application suivants : (1) produire de nouvelles cartes topographiques appartenant au même style topographique, (2) produire de nouvelles cartes topographiques à la frontière entre deux pays / agences nationales de cartographie<br>The design of topographic maps of reference is characterised both by an increasing amount of reference geographic databases and by design geo-services operating in distributed architectures. In this context, one of the major challenges consists in enriching the current knowledge on cartographic design in order to preserve the maps quality, i.e. they are legible, effective and usable. We assume that the topographic style renders maps legible and effective thanks to the visual codes and guides, well-known by the users. Our research purpose aims at formalising the concept of a topographic style as a cartographic family with a recognizable visual signature in order to produce new topographic maps.We propose to formalize key concepts of visual signature and cartographic family in a unified model. We validate and instantiate this model in setting up interviews of cartography experts and in designing user’s experiments allowing to evaluate the visual recognition of maps and graphic signs belonging in Swisstopo and IGN-France cartographic families. With results of the two user’s experiments, we characterize the visual signature of the two cartographic families. Then, we propose cartographic design guidelines in order to produce reference topographic maps based on the characterisation of the visual signature for two cases studies: (1) design a map belonging in a given cartographic family, (2) design a map on the border of two countries / two national mapping agencies
APA, Harvard, Vancouver, ISO, and other styles
6

Dhee, Francis. "Amélioration de la carte topographique pour les daltoniens." Paris 1, 2013. http://www.theses.fr/2013PA010556.

Full text
Abstract:
Depuis un siècle la carte topographique française est en couleur. Celles-ci ont été choisies et ont évolué pour assurer la meilleure lisibilité pour les utilisateurs trichromates normaux – c'est-à-dire les personnes qui voient bien la couleur. Mais en France, environ 8% des hommes perçoivent mal la couleur, depuis une gêne légère jusqu'à une confusion importante. Comment peut-on améliorer la carte topographique pour ces personnes ? Après un historique et une définition des déficiences visuelles de la couleur, nous analysons les solutions possibles sur la base d'un questionnaire réalisé auprès de quarante-sept daltoniens. Pour ce faire, nous étudions les possibilités données par la sémiologie graphique et nous explorons des solutions basées sur des indicateurs de différence de teinte. Cette recherche nous permet de proposer une évolution de la légende de la carte topographique qui donne, à plus de 90% des daltoniens, un meilleur accès à l'information géographique communiquée par la cartographie.
APA, Harvard, Vancouver, ISO, and other styles
7

Guérin, Philippe. "Apport des cartes topographiques pour l'analyse de scene en imagerie aerienne : application a la detection du reseau routier." Paris 7, 1996. http://www.theses.fr/1996PA077069.

Full text
Abstract:
Nous presentons dans cette etude une analyse des mecanismes et des difficultes de l'interpretation automatique d'images aeriennes, en la rapportant tout d'abord aux concepts de la photo-interpretation humaine. Puis nous decrivons les potentialites des cartes topographiques pour guider l'analyse et l'interpretation de la scene, particulierement dans le cadre de l'extraction du theme routier. Afin d'etablir la specificite de la carte topographique au 1:25. 000 par rapport a d'autres donnees externes, une etude de la nature et du contenu de ce document a ete realisee, ainsi qu'une evaluation de la qualite du reseau routier. En tenant compte du niveau de precision et d'exhaustivite mis en evidence, le choix methodologique d'emploi de la carte s'est porte sur une approche descendante ou le modele de la scene contenu dans la carte sert a guider et contraindre les detections dans l'image, sans remise en cause de la topologie initiale. Le probleme de la detection des routes revient alors a repositionner le centre des carrefours et a ajuster le trace des chaussees par un deplacement lateral de son axe. Ces deux actions sont assurees par des operateurs specialistes et leur deroulement est controle par un sequenceur. En derniere partie de l'etude, nous evaluons la fiabilite des resultats pour assurer un controle sur les extractions par une analyse du deroulement du processus et par une qualification aussi bien globale que locale des detections
APA, Harvard, Vancouver, ISO, and other styles
8

Regnauld, Nicolas. "Généralisation du bâti : structure spatiale de type graphe et représentation cartographique." Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11022.

Full text
Abstract:
La base de données topographique de l'Institut géographique national (BDTopo) est actuellement utilisée à divers fins dont la production des cartes au 1:25000e. Une extension possible serait de dériver aussi des cartes à de plus petites échelles (notamment au 1:50000e ) et ce de manière automatique. Le principal obstacle à cette automatisation est la phase de généralisation cartographique, qui doit extraire de la base l'information pertinente pour la nouvelle échelle. D'une manière plus générale, cette fonctionalité importante des systèmes d'information géographiques, n'est présente à l'heure actuelle que sous la forme d'outils spécifiques proposés à l'utilisateur du système pour traiter des cas précis. On peut faire l'analogie par exemple avec la génération automatique de résumé de texte : la généralisation cartographique est à la carte ce que le résumé de texte est au texte, il ne s'agit pas de jouer sur la taille des caractères mais de supprimer ce qui n'est pas essentiel, de regrouper et réduire les développements tout en conservant leur sens, parfois de conserver ce qui est exceptionnel. Nous avons limité le contexte de nos recherches au cas du bâti, avec pour objectif d'identifier les liens qui existent entre les données initiales et leurs représentations graphiques à une échelle plus petite. Le but est ensuite de définir un outil automatique pour associer à un lot de données représentant une zone de bâti dense une représentation graphique adaptée à une échelle donnée. La première partie est consacrée à la modélisation de la perception visuelle des groupements de bâtiments sur une carte. Le but est d'extraire les structures qui sont visuellement repérables. On utilise pour celà un graphe de plus proche voisinage sur les bâtiments, sur lequel on fait des mesures selon des critères issus de la théorie de Gestalt (perception de groupes). Le résultat de cette analyse fournit l'information géographique associée à chacune des strutures, c'est à dire leur caractère : taille moyenne des bâtiments, forme du groupe, densité, ces informations sont indépendants de l'échelle. A partir de ces structures, nous définissons une méthode permettant de leur associer d'autres représentations à différentes échelles. Nous avons enfin défini des méthodes d'évaluation du résultat permettant d'assurer la bonne intégration du processus dans un système de généralisation automatique. Les éventuelles dégradations constatées sont évalués et stockées au niveau des objets de la classe structure. La modélisation des structures et leur stockage permettent au processus global lorsqu'il effectue des modifications individuelles sur un bâtiment (déplacement), de déterminer à quelle structure il appartient et de vérifier que les modifications n'ont pas dégradé la perceptibilité de la structure. Si une dégradation est survenue, alors un traitement local au groupe peut être entrepris. La structure peut donc servir d'index spatial intelligent pour accéder aux bâtiments.
APA, Harvard, Vancouver, ISO, and other styles
9

Dumont, Marion. "Généralisation de représentations intermédiaires dans une carte topographique multi-échelle pour faciliter la navigation de l'utilisateur." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1076/document.

Full text
Abstract:
Une carte multi-échelle est un ensemble de cartes à différentes échelles, dans lequel l’utilisateur peut naviguer via un géoportail. Chacune de ces cartes est préalablement construite par généralisation cartographique, processus qui adapte la représentation cartographique à une échelle donnée. Les changements de représentations qu’implique la généralisation entre deux cartes à différentes échelles sont susceptibles de perturber l’utilisateur, rendant sa navigation plus difficile. Nous proposons dans cette thèse d’ajouter des représentations intermédiaires dans une carte multi-échelle existante, pour créer une évolution plus fluide du contenu cartographique au fil des échelles. Alors que de solides connaissances théoriques existent pour la conception cartographique traditionnelle, on ne sait pas encore comment concevoir une carte multi-échelle efficace. Pour formaliser des connaissances à ce sujet, nous avons étudié un panel de seize cartes multi-échelles existantes. Nous avons analysé les systèmes de zoom utilisés ainsi que l’évolution des représentations cartographiques au fil des échelles, en particulier les changements de niveaux d’abstraction pour les objets bâtis et routiers. Nous avons aussi évalué la variation de complexité visuelle du contenu cartographique au fil des échelles, en utilisant des mesures de clutter visuel. Nous avons ainsi identifié les tendances générales en termes de représentations multi-échelles (comme l’application du standard WMTS), certains facteurs que nous considérons comme ayant une influence négative sur la navigation de l’utilisateur (comme l’utilisation d’une même carte à différentes échelles), ainsi que des pratiques intéressantes visant à la faciliter (comme les représentations mixtes). A partir de ces constats, nous avons formulé des hypothèses sur l’influence des variables de construction des représentations intermédiaires sur la fluidité de navigation. Nous avons construit un matériel de test à partir d’un extrait de la carte multi-échelle Scan Express de l’IGN, entre les cartes existant au 1 : 25k et au 1 : 100k. Nous avons ainsi produit quatre versions différentes de représentations intermédiaires entre ces deux cartes, implémentant nos différentes hypothèses. Cet exercice nous a permis de mieux cerner les verrous techniques que soulève la production de représentations intermédiaires. Nous avons enfin conduit un test utilisateurs contrôlé, en demandant à 15 participants de réaliser une tâche cartographique sur ces différentes cartes multi-échelles, pour évaluer la pertinence de nos hypothèses<br>A multi-scale map is a set of maps at different scales, displayed on mapping applications, in which users may navigate by zooming in or out. Each of these maps is produced beforehand by cartographic generalization, which aims to adapt the cartographic representation for a target scale. Due to generalization, the representation changes between maps at different scales may disturb the user during its navigation. We assume that adding intermediate representations in an existing multi-scale map may enable a smooth evolution of cartographic content across scales. While theoretical knowledge exists for traditional cartography, we still do not know how to design efficient multi-scale maps. To formalize knowledge on that subject, we studied sixteen existing multi-scale maps. We focused on the used zooming system (zoom levels and display scales) and on the evolution of cartographic representations across scales, in particular for building and road entities. We also analyzed the variation of visual complexity of the map content across scales, using visual clutter measures. We thus identified general trends in terms of multi-scale representation (i.e. use of WMTS standard), some potential disturbing factors (i.e. use of a same map at different scales), but also good practices which may ease the user navigation (i.e. mixed representations). Based on these findings, we made assumptions on the influence of intermediate representations design on user navigation. We built test material from an extract of the Scan Express multi-scale map of the French IGN, between the existing maps at 1:25k and 1:100k scales. We thus produced four different versions of intermediate representations between these two maps, implementing our different hypotheses. This way, we highlighted the technical issues that we faced when producing intermediate representations. Finally, we conducted a controlled user study, asking 15 participants to perform a cartographic task on these different multi-scale maps, to evaluate our hypotheses
APA, Harvard, Vancouver, ISO, and other styles
10

Bessadok, Firas. "Modèle pour l’évaluation et l’amélioration de la lisibilité d’une carte géographique." Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1005/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la conception et à la visualisation de cartes géographiques personnalisées en passant par des étapes d'évaluation et d'amélioration automatiques de ces cartes.Dans la plupart des outils cartographiques récents (comme le GeoPortail ou Google Maps) il est possible pour l'utilisateur de construire lui-même une carte adaptée à ses besoins à partir des couches de données pouvant provenir de sources hétérogènes. Cependant, la manipulation et l'édition de cartes par des utilisateurs non-experts peuvent engendrer des erreurs de représentation qui entravent la compréhension de cette carte par ses lecteurs.Notre recherche concerne donc l'amélioration de la représentation de cartes créées par des utilisateurs non-experts. Etant donné que la lisibilité d'une carte passe par la visibilité des objets qui la composent, dans ce travail nous proposons un modèle qui évalue la visibilité de ces objets cartographiques en se fondant sur un système de cinq indicateurs de visibilité dont les valeurs varient entre 0 et 1. Ce modèle prévoit ensuite quatre méthodes de modification de la symbolisation des objets cartographiques, qui seront utilisées afin d'améliorer leur visibilité. Entre l'étape d'évaluation et celle de l'amélioration de la visibilité de ces objets, une phase d'analyse est mise en place dans le but de décider si une amélioration de la symbolisation des objets cartographiques est nécessaire, et si oui, choisir lesquelles parmi ces modifications pourront être réalisées.Ce modèle prendra comme entrée une carte géographique sous la forme (1) d'un ensemble de couches composées chacune d'objets cartographiques, (2) et de la légende utilisée pour la symbolisation de ces objets cartographiques. Il donnera en sortie (1) un ensemble de fichiers xml qui contiennent les valeurs calculés des indicateurs de visibilité, (2) une carte finale avec une nouvelle symbolisation qui améliore la valeur des indicateurs de visibilité. Ce processus offre alors aux lecteurs une carte plus lisible.Ce travail est ensuite conclu par deux tests qui valident (1) les hypothèses de base, (2) la correspondance effective entre les valeurs des indicateurs et le ressenti réel des lecteurs de cartes, et qui tentent (3) de dégager des seuils de visibilité qui seront utilisés dans le but de corriger et affiner ultérieurement les algorithmes écrits lors de cette thèse<br>In this thesis, we focus on the design and visualization of custom geographic maps by executing different stages of automatic evaluation and improvement of these maps.In the most recent mapping tools (such as Google Maps or GeoPortail) it is possible for the user to build himself a map that suits his needs using different layers of data which can come from several sources. However, the manipulation and edition of maps by non-experts can cause errors in the representation that affects the understanding of this map by its readers.That's why our research focus on improving the representation of maps created by non-expert users. Since the readability of a map depends on the visibility of objects that compose this map, in this work we propose a model which assesses the visibility of cartographic objects based on a system of five indicators of visibility (values between 0 and 1). This model then provides four methods for modifying the objects symbolization of this map, which will be used to improve their visibility. Between the evaluation and the improvement of the visibility of these objects, an analysis step is performed in order to decide whether an improvement in the symbolization is required, and if so, which of these four methods should be executed.This model takes as input a map in the form of (1) a set of layers each consisting of cartographic objects, (2) and the legend used to represent these cartographic objects. It will generate as an output (1) a set of XML files that contain the values calculated by the indicators of visibility, (2) a final map with a new representation that improve the value of these indicators of visibility. This process then provides readers with a more readable map.This work is then concluded by two tests that validate (1) our basic assumptions, (2) the actual correspondence between the indicator values and the real feel of the map readers, and finally trying (3) to determine visibility thresholds that can be used later in order to correct and refine the algorithms that are proposed in this thesis
APA, Harvard, Vancouver, ISO, and other styles
11

Ambroise, Christophe. "Approche probabiliste en classification automatique et contraintes de voisinage." Compiègne, 1996. http://www.theses.fr/1996COMPD917.

Full text
Abstract:
Ce travail propose de nouveaux algorithmes de classification pour résoudre des problèmes d'analyse de données où des contraintes naturelles apparaissent : respect d'une topologie (cartes de Kohonen), données spatiales. Les mélanges finis de lois gaussiennes et l'estimation de paramètres par l'algorithme EM constituent le cadre de ce mémoire. Le modèle des cartes topologiques de Kohonen introduisant la notion de contrainte, nous nous sommes intéressés à montrer les liens qui existent entre cette approche et les modèles de mélanges. Cette recherche a abouti au développement de variantes de l'algorithme EM ayant des comportements identiques à l'algorithme de Kohonen et possédant de bonnes propriétés de convergence. Dans le cas des données spatiales, l'a priori suivant est considéré : deux individus géographiquement proches ont plus de chance d'appartenir à une même classe que deux individus éloignés. Des algorithmes originaux, basés sur l'algorithme EM, sont proposés pour prendre en compte l'aspect spatial des données. Ces algorithmes peuvent être utilisés pour trouver une partition d'un ensemble d'individus localisés géographiquement, ce qui englobe la problématique de la segmentation d'image. Un parallèle entre les méthodes développées dans ce mémoire et les techniques markoviennes de segmentation bayésienne non supervisée d'image a été établi. Enfin, les méthodes présentées sont illustrées et comparées à l'aide d'applications concrètes<br>This thesis proposes new clustering algorithms well suited for data analysis problems where natural constraints appear: preservation of a topology, spatial data. Gaussian mixture models and the estimation of parameters by the EM algorithm constitute the background of the work. The Kohonen Map algorithm introduces the idea of constraint in clustering. We show the relationship between this neural approach and Gaussian mixture models. This leads us to propose a variant of the EM algorithm which has similar behaviour as the Kohonen algorithm and whose convergence is proven. When dealing with spatial data, we consider the following constraint: two objects which are neighbours are more likely to belong to the same class than two objects which are spatially far away. Original algorithms based on the EM algorithm are proposed for taking into account this spatial constraint. These algorithms may be used for seeking a partition of objects which have a geographical location. This encompasses the problem of unsupervised image segmentation. A theoretical link between our approach and Markov random field models is established. The proposed methods are compared and illustrated by means of applications based on real data
APA, Harvard, Vancouver, ISO, and other styles
12

Pitor, Adrien. "L’espace du Palais. Étude d’un enclos judiciaire parisien de 1670 à 1790." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUL089.

Full text
Abstract:
Cette recherche est consacrée au Palais de Paris des années 1670 à 1790. Situé sur l’île de la Cité, le Palais est une ancienne résidence royale qui abrite un ensemble de bâtiments et de cours aux fonctions variées. Il se présente à la fois comme le quartier canonial de la Sainte Chapelle et comme un pôle artisanal et commercial tourné vers le demi-luxe. Il accueille également une collection de tribunaux dont certains de première importance, à commencer par le Parlement et la Chambre des Comptes. L’enjeu de notre thèse est de comprendre comment ces différentes fonctions coexistent, s’opposent ou coopèrent dans l’enclos juridique correspondant au ressort territorial du bailliage du Palais et comment ce territoire est investi par ses habitants et par l’ensemble des Parisiens. Notre approche, essentiellement spatiale, se fonde sur un corpus de plans, coupes et élévations qui a permis de procéder à des restitutions graphiques et cartographiques et d’apprécier les transformations architecturales tout au long du XVIIIe siècle. Elle s’appuie également sur le fonds du bailliage du Palais et celui du procureur général du Parlement. Nous envisageons la structuration interne des logements, des boutiques et des tribunaux (salles d’audience, salles du conseil, parquet, greffes, buvettes) ainsi que les points de contact entre les différentes juridictions (Grande Salle, Conciergerie). Il s’agit également d’insérer le Palais dans son contexte urbain en analysant la composition sociale et les pratiques propres à ce territoire. L’usage public du lieu implique des formes d’encadrement spécifiques et conduit au développement d’une culture singulière<br>This research is dedicated to the Palais de Paris from the 1670s to the 1790s. Located on the Ile de la Cité, the Palais is a former royal residence which houses a set of buildings and yards with a variety of functions. It comes across as both the canonical quarter of the Sainte Chapelle and as a hand-made and half-luxury commercial point. It also hosts a collection of courts, some of prime importance, starting with the Parlement and the Chambre des Comptes. Understanding how these different functions coexist, oppose or cooperate is at the centre of our research. We will analyse those various relationships in the legal enclosure corresponding to the territorial jurisdiction of the bailliage du Palais and see how this territory is taken up by its inhabitants and by all Parisians. Our approach, essentially spatial, is based on a corpus of plans, sections and elevations that allowed to carry out graphic and cartographic renditions and to assess architectural transformations throughout the eighteenth century. It also relies upon the funds of the bailliage du Palais and of the Attorney General of Parlement. We are considering the internal structure of accommodation, shops and courts (courtrooms, boardrooms, prosecutor's office, tribunal registry, refreshment bars) as well as the points of contact between the various jurisdictions (Grande Salle, Conciergerie). It is also about placing the Palais in its urban context through the analysis of its social composition and the practices specific to this territory. The public use of the Palais implies specific forms of supervision and leads to the development of a particular culture
APA, Harvard, Vancouver, ISO, and other styles
13

Meas-Yedid, Vannary. "Analyse de cartes scannées : interprétation de la planche de vert : contribution à l'analyse d'images en cartographie." Paris 5, 1998. http://www.theses.fr/1998PA05S003.

Full text
Abstract:
Dans le cadre d'un projet de lecture automatique des cartes scannées de l'institut géographique national (IGN), notre étude consiste à analyser et à interpréter la planche de vert représentant la végétation sur une carte topographique. Il s'agit donc d'extraire et de reconnaitre les objets de cette planche constitués de surfaces (zones de végétation), de lignes (haies ou limites) et de points (arbres et groupes d'arbres isoles) pour alimenter un système d'information géographique (SIG). Une méthode de traitement générique a du être déterminée afin de prendre en compte les deux types de conventions de rédaction de l’IGN (1922 et 1972) qui génèrent des images de textures très différentes pour la représentation des zones de végétation. Une première approche statistique de texture reposant sur des paramètres visuels et sur un arbre dichotomique n'ayant pas donné de résultats satisfaisants, nous avons adopté, dans le cadre d'une approche structurelle de texture, une méthode mixte. Apres pré-traitement de l'image, la méthode est fondée sur trois principales phases : apprentissage pour caractériser la texture, extraction des régions et validation des résultats obtenus. La première phase utilise des règles heuristiques, établies à partir des règles de rédaction cartographique et repose sur la caractérisation des textures (primitives et règles de placement) formant les objets surfaciques. Les deux premières étapes ont du être respectivement adaptées aux zones de hachures et aux zones de poncifs. La troisième phase (extraction des régions) a été elle-même divisée en trois sous-étapes, correspondant à l'extraction des primitives de texture, à leur regroupement, et au calcul du contour des régions. La caractérisation des paramètres de texture permet à notre méthode d'être générique et robuste. L'approche mixte permet de bien gérer les problèmes dus aux bruits de l'image. Enfin, l'analyse des limites des zones a été affinée par l'étude conjointe avec les autres planches-mères, la planche de noir tout particulièrement. Cette méthodologie a permis une interprétation tout à fait satisfaisante de la planche et l'évaluation prouve que le système est fiable et robuste : pas d'erreurs de classification et de faibles erreurs d'omission. Les résultats obtenus montrent qu'il n'est pas nécessaire d'apporter de corrections manuelles.
APA, Harvard, Vancouver, ISO, and other styles
14

Lahoussine_Aquede. "Évaluation des méthodes semi-numérique et numérique pour la mise à jour de la carte topographique à l’échelle du 1/50 000 à partir des données de télédétection." Mémoire, Université de Sherbrooke, 1993. http://hdl.handle.net/11143/7869.

Full text
Abstract:
La mise à jour de la carte topographique à l’échelle du 1/50 000 peut être assurée d’une manière systématique et périodique par les méthodes semi-numérique et numérique à partir des données de télédétection. Dans ce cadre, cette étude vise à évaluer la pertinence de ces deux méthodes pour la mise à jour de ce type de carte à partir des images SPOT aux niveaux de la précision, du contenu, du temps et du coût. La méthode semi-numérique comporte deux cas. Le premier dit “semi-numérique non rigoureuse” est basé sur les images SPOT (panchromatique et multispectrale de 1987) corrigées avec un polynôme du second degré (forme analogique). Le second dit “semi-numérique rigoureuse” utilise l’ortho-image intégrée (forme analogique) produite à partir des mêmes images que le premier cas à l’aide du système de rectification d’images de télédétection “SRIT”. La méthode numérique exploite l’ortho-image intégrée (forme numérique) produite à l’aide du SRIT. La mise à jour de la carte topographique à l’échelle du 1/50 000 de 1979 (Feuillet de Sherbrooke-Coaticook) a été effectuée à partir des données SPOT (panchromatique du 20-06-1987 et multispectrale du 02-08-1987) par ces méthodes. La méthode semi-numérique “non rigoureuse” exploite les images corrigées à l’aide de l’autoprojecteur PROCOM-2 pour extraire les nouveaux éléments topographiques. Ces derniers sont tracés directement sur une copie (acétate) de la carte existante. Une fois [que] tous les changements sont apportés, on obtient la carte mise à jour (forme analogique). La méthode semi-numérique “rigoureuse” utilise l’ortho-image en procédant de la même manière que le cas précédent. La méthode numérique exploite l’ortho-image pour mettre à jour le fichier numérique de représentation “FNR” créé par la numérisation des planches mères de la carte existante. Cette mise à jour s’effectue par l’extraction manuelle à l’écran des détails en superposant le FNR à l’ortho-image. Le FNR ainsi mis à jour est appelé le fichier numérique de position “FNP” (forme numérique). Mis à part les éléments fins et les détails ponctuels, le contenu obtenu par la méthode semi-numérique (dans les deux cas) est comparable à celui obtenu par la méthode numérique. La méthode semi-numérique “non rigoureuse” est rapide (29%) et économique (50%) par rapport à la méthode numérique. Mais avec la précision de 73 m, elle est loin de répondre aux standards de précision de la cartographie à l’échelle du 1/50 000. La méthode semi-numérique “rigoureuse” permet une réduction des délais de 15% et du coût de 29% par rapport à la méthode numérique. La précision de 31 m obtenue n’est pas conforme aux normes de la carte à l’échelle du 1/50 000 “Classe A” (25 m) mais, elle est largement suffisante pour la mise à jour de la “Classe B” (50 m). La méthode numérique s’avère longue et onéreuse par rapport à la méthode semi-numérique. Cependant, elle s’impose par sa précision (14,91 m) qui répond aux tolérances de la carte à l’échelle du 1/50 000 “Classe A”. Dans le cas de la méthode semi-numérique, l’apport de quelques modifications à la logistique (remplacer la table de travail de l’autoprojecteur PROCOM-2 par une table de numérisation et améliorer le grossissement et la mise au point de l’objectif) pourrait sans doute conduire à des résultats meilleurs. La méthode numérique devient plus intéressante une fois la base de données topographiques établie. En effet le délai et le coût seront respectivement réduits d’environ 12% et 30%.
APA, Harvard, Vancouver, ISO, and other styles
15

Touya, Guillaume. "Le Modèle CollaGen : collaboration de processus automatiques pour la généralisation cartographique de paysages hétérogènes." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00664464.

Full text
Abstract:
Cette thèse traite de l'automatisation de la généralisation cartographique qui est le procédé de simplification d'une base de données géographique vectorielle pour sa représentation sur une carte lisible. La recherche dans le domaine a abouti aujourd'hui au développement de nombreux processus automatiques de généralisation cartographique, chacun étant spécialisé pour un problème particulier comme un type de paysage, un thème de donnée, un type de conflit ou un mélange des trois (proximité entre bâtiments en zone urbaine). L'objectif de cette thèse est de tirer parti de cette diversité pour mettre en place la généralisation complète d'une carte en faisant collaborer des processus de généralisation complémentaires. Pour répondre à cet objectif, nous proposons le modèle CollaGen (Collaborative Generalisation) qui permet, par un système multi-agent, la collaboration des processus : les données sont découpées de manière pertinente par rapport aux processus à disposition en espaces géographiques (une zone urbaine ou le réseau routier par exemple) ; la généralisation d'un espace par un processus est ensuite orchestrée par CollaGen. CollaGen associe de manière itérative un espace à généraliser et un processus adapté, notamment par un mécanisme de registre type pages jaunes. L'interopérabilité entre les processus est assurée par une ontologie du domaine sur laquelle s'appuie un format de spécifications formelles d'une carte généralisée. Chaque généralisation est évaluée globalement en temps réel pour permettre un retour en arrière en cas de problème. Enfin, du fait du principe de découpage en espaces, CollaGen doit vérifier après chaque généralisation si des effets de bord sont apparus avec les objets géographiques situés juste à l'extérieur de l'espace, auquel cas il les corrige au mieux. Dans, cette thèse, le modèle CollaGen est mis en œuvre pour la généralisation de cartes topographiques (notamment au 1 : 50000) et les résultats sont comparés à d'autres approches et discutés
APA, Harvard, Vancouver, ISO, and other styles
16

Pitor, Adrien. "L’espace du Palais. Étude d’un enclos judiciaire parisien de 1670 à 1790." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUL089.

Full text
Abstract:
Cette recherche est consacrée au Palais de Paris des années 1670 à 1790. Situé sur l’île de la Cité, le Palais est une ancienne résidence royale qui abrite un ensemble de bâtiments et de cours aux fonctions variées. Il se présente à la fois comme le quartier canonial de la Sainte Chapelle et comme un pôle artisanal et commercial tourné vers le demi-luxe. Il accueille également une collection de tribunaux dont certains de première importance, à commencer par le Parlement et la Chambre des Comptes. L’enjeu de notre thèse est de comprendre comment ces différentes fonctions coexistent, s’opposent ou coopèrent dans l’enclos juridique correspondant au ressort territorial du bailliage du Palais et comment ce territoire est investi par ses habitants et par l’ensemble des Parisiens. Notre approche, essentiellement spatiale, se fonde sur un corpus de plans, coupes et élévations qui a permis de procéder à des restitutions graphiques et cartographiques et d’apprécier les transformations architecturales tout au long du XVIIIe siècle. Elle s’appuie également sur le fonds du bailliage du Palais et celui du procureur général du Parlement. Nous envisageons la structuration interne des logements, des boutiques et des tribunaux (salles d’audience, salles du conseil, parquet, greffes, buvettes) ainsi que les points de contact entre les différentes juridictions (Grande Salle, Conciergerie). Il s’agit également d’insérer le Palais dans son contexte urbain en analysant la composition sociale et les pratiques propres à ce territoire. L’usage public du lieu implique des formes d’encadrement spécifiques et conduit au développement d’une culture singulière<br>This research is dedicated to the Palais de Paris from the 1670s to the 1790s. Located on the Ile de la Cité, the Palais is a former royal residence which houses a set of buildings and yards with a variety of functions. It comes across as both the canonical quarter of the Sainte Chapelle and as a hand-made and half-luxury commercial point. It also hosts a collection of courts, some of prime importance, starting with the Parlement and the Chambre des Comptes. Understanding how these different functions coexist, oppose or cooperate is at the centre of our research. We will analyse those various relationships in the legal enclosure corresponding to the territorial jurisdiction of the bailliage du Palais and see how this territory is taken up by its inhabitants and by all Parisians. Our approach, essentially spatial, is based on a corpus of plans, sections and elevations that allowed to carry out graphic and cartographic renditions and to assess architectural transformations throughout the eighteenth century. It also relies upon the funds of the bailliage du Palais and of the Attorney General of Parlement. We are considering the internal structure of accommodation, shops and courts (courtrooms, boardrooms, prosecutor's office, tribunal registry, refreshment bars) as well as the points of contact between the various jurisdictions (Grande Salle, Conciergerie). It is also about placing the Palais in its urban context through the analysis of its social composition and the practices specific to this territory. The public use of the Palais implies specific forms of supervision and leads to the development of a particular culture
APA, Harvard, Vancouver, ISO, and other styles
17

Stéphan, Pierre. "Les flèches de galets de Bretagne : morphodynamiques passée, présente et prévisible." Phd thesis, Université de Bretagne occidentale - Brest, 2008. http://tel.archives-ouvertes.fr/tel-00355047.

Full text
Abstract:
Dans l'optique d'une meilleure compréhension du fonctionnement des flèches de galets en Bretagne, la morphodynamique de ces formes d'accumulation a été étudiée à différentes échelles spatiales et temporelles. <br /><br />Sur le long terme, l'évolution des flèches au cours de l'Holocène a été reconstituée à partir d'une analyse stratigraphique des dépôts préservés au sein de trois marais maritimes situés en rade de Brest. En parallèle, les variations holocènes du niveau marin ont été reconstituées afin d'appréhender le rôle des mouvements eustatique dans l'évolution à long terme des flèches de galets. Quatre grandes phases dans les courbes des variations eustatiques peuvent toutefois être identifiées. Ainsi, un stationnement relatif du niveau marin à environ 5 m sous son niveau actuel est enregistré entre 5 500 et 4 800 BP. Cette phase de ralentissement important de la transgression holocène aurait favorisé la mise en place de tourbières au niveau de la ligne de rivage actuelle à la fin de l'Atlantique et au début du Subboréal. Un mouvement transgressif important semble s'opérer entre 4 800 et 3 000 BP, amenant la mer a un niveau proche, quoique légèrement inférieur à l'actuel à la fin du Subboréal. En rade de Brest, cette phase de remontée relativement rapide du niveau marin a vraisemblablement entraîné l'inondation des tourbières littorales ou dulçaquicoles par la mer et leur remplacement par des marais maritimes protégés de l'agitation des vagues par la présence de cordons littoraux. Ces cordons auraient progressivement reculé jusqu'à une position assez voisine de l'actuelle vers 3 000 BP. Ensuite, une petite régression marine se serait traduite par une baisse du niveau marin relatif de 2 à 3 m entre 3 000 et 2 700 BP, entraînant l'abandon temporaire des systèmes littoraux (marais maritimes/cordons littoraux) par la mer. Dans le nord du Finistère, cette régression aurait favorisé l'exondation de vastes surfaces sableuses sur lesquelles la déflation éolienne aurait favorisé la construction des grands massifs dunaires de la région (Guilcher et Hallégouët, 1991). Il convient toutefois de préciser que cet épisode régressif datant de la fin de l'âge du Bronze pose question dans la mesure où il n'est enregistré par aucune courbe construite sur les différentes façades maritimes françaises (Lambeck, 1997, Vella et Provansal, 2000), ni même sur les côtes de Belgique (Denys et Beateman, 1995) ou du sud de l'Angleterre (Long et al., 1999). Cette baisse du niveau marin, ne reposant que sur deux points, pourrait simplement être attribuée à un manque de précision des données (mauvaises datations, erreur de positionnement altitudinal). De toute évidence, il apparaît nécessaire de multiplier les études de cas afin de proposer une courbe beaucoup plus fiable des variations eustatiques holocènes dans le nord-ouest de la Bretagne. A partir de 2 700 BP, le mouvement transgressif reprend à un rythme décroissant jusqu'à nos jours. La mer réinvestit peu à peu les milieux littoraux et édifie, en rade de Brest, les principaux cordons et flèches de galets actuels, qui apparaissent comme de véritables héritages morpho-sédimentaires.<br /><br />Sur le moyen terme, la mobilité des flèches de galets de Bretagne a été retracée à partir d'un traitement numérique de cartes anciennes et de photographies aériennes. Une tendance au recul des flèches se dessine à l'échelle régionale au cours des trois derniers siècles. Près de 80% des flèches étudiées montrent des signes de cannibalisation, de recul relativement rapide par rollover, d'ouverture de brèches et de démantèlement. Ces évolutions traduisent un contexte d'érosion liée à une sous-alimentation sédimentaire résultant d'apports insuffisants en matériaux grossiers provenant du recul des falaises meubles quaternaires. Les flèches de galets constituent donc actuellement des héritages en cours de dilapidation. Par ailleurs, l'analyse des forçages météo-marins sur la période récente fait apparaître une différence de fonctionnement morphodynamique opposant les flèches de type SAB (swash-aligned barriers) orientées perpendiculairement aux houles incidentes et dont l'évolution récente est fortement contrôlée par les épisodes de submersion marine, et les flèches de type DAB (drift-aligned barrier) alignées dans le sens des vagues incidentes, peu influencées par les événements météo-marins. <br /><br />Sur le court terme, la mobilité des flèches de galets a été retracée à partir d'un suivi topo-morphologique réalisé entre 2002 et 2008, couplé à une analyse des conditions météo-marines. La mobilité des flèches présente un caractère spasmodique, marquée par des phases de stabilité permettant la consolidation des cordons et de brusques épisodes érosifs liés à l'intervention d'épisodes de submersion marine très morphogènes. Les méthodes d'analyse prévisionnelle utilisées (méthode historique, cartographie de la submersion, modèle de Sallenger (2000)) permettent de prévoir une poursuite du recul de ces édifices sédimentaires et, par endroits, l'exagération des phénomènes d'érosion. Dans ce contexte, se pose la question d'une éventuelle gestion de ces formes d'accumulation puisque ces flèches participent à la protection de marais maritimes à forte valeur écologique. En outre, ces flèches constituent des objets géomorphologiques à forte valeur patrimoniale, comme en témoigne le classement récent du Sillon de Talbert en Espace Remarquable de Bretagne.
APA, Harvard, Vancouver, ISO, and other styles
18

Hurtut, Thomas. "Analyse et recherche d'oeuvres d'art 2D selon le contenu pictural." Phd thesis, Télécom ParisTech, 2008. http://tel.archives-ouvertes.fr/tel-00426645.

Full text
Abstract:
Les institutions culturelles mènent depuis une vingtaine année une politique de sauvegarde numérique exhaustive de leurs collections conduisant à la création de bases d'images de plus en plus grandes. Les oeuvres d'art se différencient des images naturelles car elles sont souvent stylisées. Cette caractéristique influence notre interprétation de l'image et l'impression visuelle qui nous est transmise. Nous proposons dans cette thèse des descripteurs et mesures de similarité spécifiques au contenu pictural et les testons dans le cadre de la recherche par le contenu d'images similaires. Le premier aspect du contenu pictural auquel nous nous sommes intéressés concerne l'organisation spatiale globale des couleurs. Nous modélisons le problème de la comparaison entre deux organisations spatiales des couleurs par un problème de transport optimal appliqué à des imagettes. Dans le cadre de la recherche d'images dans une base, nous proposons également un seuil adaptatif sur cette distance de transport fondé sur une approche "a contrario". Le deuxième aspect du contenu pictural que nous étudions concerne les caractéristiques du contenu géométrique lié aux lignes dans les dessins au trait. Pour cette approche nous développons un détecteur de contours de trait sans paramètre reposant sur un filtrage topologique de l'arbre des lignes de niveau significatives de Desolneux et al., ainsi qu'un ensemble de méthodes d'extraction de caractéristiques visuelles incluant les extrémités de trait, les jonctions et les coins. Nous évaluons ces deux approches en utilisant sept bases différentes totalisant environ 65000 images.
APA, Harvard, Vancouver, ISO, and other styles
19

Aït, Ettajer Taoufik. "Modélisation de surfaces géologiques complexes sous contraintes géométriques : application à la génération automatique de modèles géologiques." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL058N.

Full text
Abstract:
La modélisation géométrique de surfaces géologiques est un domaine en plein essor dont l'objectif est de représenter, de façon précise, des surfaces géologiques complexes. Les approches basées sur les méthodes de C. A. O. Classiques n'étant pas suffisamment adaptées pour la modélisation de telles surfaces, le professeur Mallet a proposé une nouvelle approche de la modélisation des surfaces naturelles dans le cadre du projet GOCAD. Le noyau du projet réside dans un nouveau principe d'interpolation en 3 dimensions appelé D. S. I. (Discrete Smooth Interpolation). Les travaux présentés dans ce mémoire furent menés au sein de ce projet et consistaient à développer un ensemble d'outils géométriques pour la construction automatique de modèles géologiques. Parmi ces outils, on trouve le calcul des courbes d'isovaleurs sur des surfaces complexes et la modélisation de failles. La nouvelle approche, pour le calcul des courbes d'isovaleurs sur des surfaces, se distingue par sa rapidité et sa précision même si les surfaces sont complexes (par exemple présentant des trous). La modélisation d'une faille passe par la construction d'une surface et par la caractérisation de la relation qu'elle entretient avec un horizon. Cette dernière opération a été rendue possible par la mise en place de trois contraintes géométriques D. S. I. : OnTsurf, VecLink et OnBorder. Les outils de modélisation géométrique du projet GOCAD seront utilisés pour mettre au point un prototype de générateur automatique de modèles géologiques
APA, Harvard, Vancouver, ISO, and other styles
20

Pouderoux, Joachim. "Création semi-automatique de modèles numériques de terrains - Visualisation et interaction sur terminaux mobiles communicants." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00354701.

Full text
Abstract:
Les modèles numériques de terrains (MNT) permettent de représenter efficacement la topographie d'une zone géographique donnée. Ces MNT peuvent être issus d'une télé acquisition à l'aide de radars embarqués ou de levés manuels sur le terrain à l'aide d'un tachéomètre. Les MNT constituent le contexte thématique de cette thèse qui est composée en trois parties.<br /><br />Dans un premier temps, nous nous intéressons à la création de ces modèles à partir d'une source importante de données topographiques constituée par les cartes topographiques. Nous présentons une chaîne complète de traitements permettant de générer un MNT à partir d'une carte topographique numérisée. Nous détaillons particulièrement de nouvelles méthodes de reconstruction des courbes de niveaux et d'interpolation de ces courbes pour générer un MNT. Les différents travaux effectués dans cette thématique s'intègrent au sein de la plate-forme logicielle AutoDEM que nous avons développée durant cette thèse.<br /><br />Puis, dans une deuxième partie, nous présentons une nouvelle technique permettant de visualiser des MNT en 3D sur une large gamme de dispositifs allant de stations de travail reliées à de grands écrans jusqu'à des terminaux mobiles (TM) à faibles capacités tels que les PDA ou les téléphones portables. L'intérêt majeur de la technique présentée, qui repose sur un mode connecté client-serveur, réside dans l'adaptation dynamique du modèle 3D aux capacités d'affichage du terminal. Nous nous intéressons également à des techniques de rendu à distance et présentons deux techniques permettant d'offrir d'une part une visualisation interactive temps réel et d'autre part un panorama virtuel à l'utilisateur.<br /><br />Enfin, dans un troisième temps, nous décrivons des techniques nouvelles permettant à un utilisateur mobile disposant d'un TM de naviguer et d'interagir avec des données géographiques (cartes ou plans 2D et scènes 3D). La première est une technique d'interaction tangible et bi-manuelle reposant sur la détection par analyse du flux vidéo d'une cible décrivant un code couleur. La deuxième est une technique de sélection à deux niveaux adaptée aux TM ne disposant pas de dispositif de pointage continu.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography