To see the other types of publications on this topic, follow the link: Cartographie sur le Web.

Dissertations / Theses on the topic 'Cartographie sur le Web'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Cartographie sur le Web.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Benamrani, Noureddine. "Vers un système de projection icosaédral hiérarchique global sans distorsions pour cartographie Web." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25554.

Full text
Abstract:
Les systèmes de projection cartographique adaptés aux services de cartographie web, suscitent encore de nombreuses questions de recherche. La majorité des services de cartographie Web (ex. Google Maps, Bing Maps) utilise la Projection Web Mercator(WMP), mais cette dernière présente de grandes distorsions systématiques notamment dans les régions nordiques. Il nous est alors paru nécessaire de développer une autre méthode permettant de projeter la surface du globe avec un minimum de distorsion. Notre approche s’inspire de la projection myriahedrale qui suppose que chaque face du myriahedron est suffisamment petite de telle sorte que les distorsions soient négligeables. La méthode proposée consiste à explorer une nouvelle approche de tessellation de la surface du globe et qui permet de projeter la surface du globe sur les faces de la tessellation et à plusieurs niveaux de détails. Cela permet de compenser la faiblesse des méthodes de tessellations existantes utilisées dans la cartographie Web. Cette tessellation utilise un icosaèdre comme modèle géométrique de base avec une densité de partitionnement des faces de l’icosaèdre entre les niveaux de récursivité égale à 4.La méthodologie proposée consiste en quatre étapes successives: a) la construction d'une structure hiérarchique qui résulte de la subdivision récursive des faces de l'icosaèdre ; b) la définition d’un système de projection approprié à la tessellation icosaédrique; c) la projection des données géospatiales de la sphère terrestre sur chaque face de l’icosaèdre; d) le dépliage de la tessellation icosaédrique résultante sur un plan en utilisant des algorithmes de calcul du plus court chemin afin de maintenir le voisinage autour du point d’intérêt. Nous présenterons les étapes de développement et d’implémentation du système proposé et les résultats obtenus dans le cadre de ce projet de recherche. L’étude comparative avec d’autres systèmes de projection montre que notre approche minimise mieux les déformations par tout sur le globe et surtout dans les régions nordiques.<br>Map projection systems adapted to web mapping services still raise many research questions. The majority of web mapping services (ex. Google Maps, Bing Maps) use Web Mercator Projection (WMP) which introduces large systematic distorsionsin spatial data especially in polar rigions. Therefore, it is necessary to develop an alternative method for projecting these regions with minimal distortions. Our approach is inspired of myriahedral projections which assume that each face of a myriahedron is small enough so that the distortions are negligible. Here, in this research work we propose a new approach for the tessellation of the surface of the globe and the projectionof the spatial information from the glob to the faces of the tessellation at differentlevels of details. This compensates for the weakness of the methods used for tessellation in the existing web mapping systems. The proposed tessellation is created based on an icosahedron with a partitioning density of the faces equal to 4. The proposed methodology consists of four stages: a) constructing of a hierarchical structure resulting the recursive subdivision of the faces of the icosahedron, while maintaining topological relationships between the triangles in each level of detail; b) defining of an appropriate projection system to the icosahedral tessellation; c) projecting of geospatial data of the terrestrial sphere on each face of the icosahedron; d) unfolding the resulting icosahedral tessellation on a plane around a point of interest. Here we present different stages of development and implementation of the proposed system and the results obtained in the framework of this research project. The comparative study with other projection systems shows that our approach allows to better minimize different distortions every where on the globe and specially in the polar rigions.
APA, Harvard, Vancouver, ISO, and other styles
2

Cosma, Ioana-Mihaela. "Modèle de données pour la production cartographique sur le Web : mise en oeuvre des représentations multiples en GML." Thesis, Université Laval, 2004. http://www.theses.ulaval.ca/2004/21761/21761.pdf.

Full text
Abstract:
La diffusion des informations spatiales sur support cartographique constitue un défi lorsque le contexte d’utilisation des cartes est l’Internet et que les services cartographiques sont offerts pour tout type de terminal (fixe ou mobile, de type Desktop, ordinateur portable, PDA ou téléphone cellulaire). Une des techniques utilisées pour attaquer ce défi est le stockage des données avec représentations multiples et le filtrage parmi ces représentations lors de la création d’une carte à la volée. L’émergence d’un nouveau standard pour la modélisation, le transport et le stockage de l’information géographique, le GML, a ouvert de nouvelles pistes de recherche pour trouver un modèle de données mieux adapté au stockage des représentations multiples des objets géographiques et l’utilisation de ces données dans un contexte Web. Le développement d’un tel modèle de données, ainsi que son implantation ont fait l’objet de cette recherche. Ainsi, nous proposons la mise en œuvre des représentations multiples dans un modèle de données en GML.
APA, Harvard, Vancouver, ISO, and other styles
3

Jabeur, Nafaâ. "A multi-agent system for on-the-fly web map generation and spatial conflict resolution." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23356/23356.pdf.

Full text
Abstract:
Résumé Internet est devenu un moyen de diffusion de l’information géographique par excellence. Il offre de plus en plus de services cartographiques accessibles par des milliers d’internautes à travers le monde. Cependant, la qualité de ces services doit être améliorée, principalement en matière de personnalisation. A cette fin, il est important que la carte générée corresponde autant que possible aux besoins, aux préférences et au contexte de l’utilisateur. Ce but peut être atteint en appliquant les transformations appropriées, en temps réel, aux objets de l’espace à chaque cycle de génération de la carte. L’un des défis majeurs de la génération d’une carte à la volée est la résolution des conflits spatiaux qui apparaissent entre les objets, essentiellement à cause de l’espace réduit des écrans d’affichage. Dans cette thèse, nous proposons une nouvelle approche basée sur la mise en œuvre d’un système multiagent pour la génération à la volée des cartes et la résolution des conflits spatiaux. Cette approche est basée sur l’utilisation de la représentation multiple et la généralisation cartographique. Elle résout les conflits spatiaux et génère les cartes demandées selon une stratégie innovatrice : la génération progressive des cartes par couches d’intérêt. Chaque couche d’intérêt contient tous les objets ayant le même degré d’importance pour l’utilisateur. Ce contenu est déterminé à la volée au début du processus de génération de la carte demandée. Notre approche multiagent génère et transfère cette carte suivant un mode parallèle. En effet, une fois une couche d’intérêt générée, elle est transmise à l’utilisateur. Dans le but de résoudre les conflits spatiaux, et par la même occasion générer la carte demandée, nous affectons un agent logiciel à chaque objet de l’espace. Les agents entrent ensuite en compétition pour l’occupation de l’espace disponible. Cette compétition est basée sur un ensemble de priorités qui correspondent aux différents degrés d’importance des objets pour l’utilisateur. Durant la résolution des conflits, les agents prennent en considération les besoins et les préférences de l’utilisateur afin d’améliorer la personnalisation de la carte. Ils améliorent la lisibilité des objets importants et utilisent des symboles qui pourraient aider l’utilisateur à mieux comprendre l’espace géographique. Le processus de génération de la carte peut être interrompu en tout temps par l’utilisateur lorsque les données déjà transmises répondent à ses besoins. Dans ce cas, son temps d’attente est réduit, étant donné qu’il n’a pas à attendre la génération du reste de la carte. Afin d’illustrer notre approche, nous l’appliquons au contexte de la cartographie sur le web ainsi qu’au contexte de la cartographie mobile. Dans ces deux contextes, nous catégorisons nos données, qui concernent la ville de Québec, en quatre couches d’intérêt contenant les objets explicitement demandés par l’utilisateur, les objets repères, le réseau routier et les objets ordinaires qui n’ont aucune importance particulière pour l’utilisateur. Notre système multiagent vise à résoudre certains problèmes liés à la génération à la volée des cartes web. Ces problèmes sont les suivants : 1. Comment adapter le contenu des cartes, à la volée, aux besoins des utilisateurs ? 2. Comment résoudre les conflits spatiaux de manière à améliorer la lisibilité de la carte tout en prenant en considération les besoins de l’utilisateur ? 3. Comment accélérer la génération et le transfert des données aux utilisateurs ? Les principales contributions de cette thèse sont : 1. La résolution des conflits spatiaux en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 2. La génération des cartes dans un contexte web et dans un contexte mobile, à la volée, en utilisant les systèmes multiagent, la généralisation cartographique et la représentation multiple. 3. L’adaptation des contenus des cartes, en temps réel, aux besoins de l’utilisateur à la source (durant la première génération de la carte). 4. Une nouvelle modélisation de l’espace géographique basée sur une architecture multi-couches du système multiagent. 5. Une approche de génération progressive des cartes basée sur les couches d’intérêt. 6. La génération et le transfert, en parallèle, des cartes aux utilisateurs, dans les contextes web et mobile.<br>Abstract Internet is a fast growing medium to get and disseminate geospatial information. It provides more and more web mapping services accessible by thousands of users worldwide. However, the quality of these services needs to be improved, especially in term of personalization. In order to increase map flexibility, it is important that the map corresponds as much as possible to the user’s needs, preferences and context. This may be possible by applying the suitable transformations, in real-time, to spatial objects at each map generation cycle. An underlying challenge of such on-the-fly map generation is to solve spatial conflicts that may appear between objects especially due to lack of space on display screens. In this dissertation, we propose a multiagent-based approach to address the problems of on-the-fly web map generation and spatial conflict resolution. The approach is based upon the use of multiple representation and cartographic generalization. It solves conflicts and generates maps according to our innovative progressive map generation by layers of interest approach. A layer of interest contains objects that have the same importance to the user. This content, which depends on the user’s needs and the map’s context of use, is determined on-the-fly. Our multiagent-based approach generates and transfers data of the required map in parallel. As soon as a given layer of interest is generated, it is transmitted to the user. In order to generate a given map and solve spatial conflicts, we assign a software agent to every spatial object. Then, the agents compete for space occupation. This competition is driven by a set of priorities corresponding to the importance of objects for the user. During processing, agents take into account users’ needs and preferences in order to improve the personalization of the final map. They emphasize important objects by improving their legibility and using symbols in order to help the user to better understand the geographic space. Since the user can stop the map generation process whenever he finds the required information from the amount of data already transferred, his waiting delays are reduced. In order to illustrate our approach, we apply it to the context of tourist web and mobile mapping applications. In these contexts, we propose to categorize data into four layers of interest containing: explicitly required objects, landmark objects, road network and ordinary objects which do not have any specific importance for the user. In this dissertation, our multiagent system aims at solving the following problems related to on-the-fly web mapping applications: 1. How can we adapt the contents of maps to users’ needs on-the-fly? 2. How can we solve spatial conflicts in order to improve the legibility of maps while taking into account users’ needs? 3. How can we speed up data generation and transfer to users? The main contributions of this thesis are: 1. The resolution of spatial conflicts using multiagent systems, cartographic generalization and multiple representation. 2. The generation of web and mobile maps, on-the-fly, using multiagent systems, cartographic generalization and multiple representation. 3. The real-time adaptation of maps’ contents to users’ needs at the source (during the first generation of the map). 4. A new modeling of the geographic space based upon a multi-layers multiagent system architecture. 5. A progressive map generation approach by layers of interest. 6. The generation and transfer of web and mobile maps at the same time to users.
APA, Harvard, Vancouver, ISO, and other styles
4

Kotras, Baptiste. "Mesurer la parole en ligne : traces, dispositifs et régimes de l'opinion sur le web." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC0102.

Full text
Abstract:
“Know what people think”. Ce slogan, affiché sur la page d’accueil du site de l’entreprise britannique Brandwatch, résume à lui seul la promesse de l’industrie nouvelle associée à l’étude des opinions sur le web : savoir enfin ce que les gens pensent, et cela sans même avoir besoin de le leur demander. Un ensemble d’agences, de start-ups et d’éditeurs de logiciels propose en effet depuis le milieu des années 2000 de connaître les opinions du grand public à partir des millions de publications quotidiennes sur le web social : tweets, billets de blogs, messages sur les forums ou encore commentaires de la presse en ligne. Ces données massivement disponibles sont ainsi investies par des acteurs et des instruments extrêmement variés pour mesurer aussi bien la réputation des grandes marques et entreprises, que les réactions à une campagne publicitaire ou un débat télévisé, ou encore des pratiques de consommation émergentes ; tous ont en commun de s’intéresser pour cela aux opinions non sollicitées des internautes. Cette démarche rencontre par ailleurs un succès considérable depuis plusieurs années : en 2015, soit dix ans après la création des premières entreprises dans ce domaine, l’industrie des logiciels de social media analysis générait 2,2 milliards de dollars de chiffre d’affaires selon le cabinet Markets and Markets, qui prévoit par ailleurs la croissance de ce marché jusqu’à 17,9 milliards de dollars en 2019.À distance du positivisme qui entoure ces technologies comme d’une critique constructiviste extérieure à son objet, cette thèse cherche à décrire l’émergence de médiations d’un nouveau type qui se saisissent des traces conversationnelles du web social pour la mesure de l’opinion, et renouvellent ainsi le contenu épistémologique et politique de cette catégorie. Partant de l’hypothèse d’une pluralité des formes de l’opinion et des dispositifs qui la mesurent, nous suivons ainsi un ensemble extrêmement varié de modélisations, construites par des start-ups et entreprises innovantes. Nous nous intéressons ainsi dans un premier temps les tentatives de redéfinition de la notion de représentativité par l’échantillonnage de publics mobilisés et influents. Dans un second temps, nous étudions le modèle qui semble l’emporter sur ce marché, fondé sur des logiciels visant l’indexation exhaustive et continue des traces de la conversation en ligne. Mesurant l’opinion comme un flux continu d’événements singuliers, ces instruments rompent définitivement avec l’idée de représentativité et réactualisent une grammaire de l’opinion comme activité collective et discursive, attentive aux dynamiques médiatiques et relationnelles de la discussion en ligne. Ce régime indiciel de connaissance des opinions délaisse donc la quantification des majorités et des minorités pour la mesure des mobilisations et des mouvements de l’opinion<br>"Know what people think." This slogan, posted on the homepage of the British company Brandwatch website, contains the promise of the new industry associated with the study of online opinion: know what people think, finally, without even having to ask. Indeed, since the mid-2000s, a group of agencies, startups and software companies offers to know the opinion from millions of daily publications on the social web: tweets, blog posts or messages on forums. These massively available data are invested by extremely diverse actors and instruments, to measure brand reputation, reactions to an advertising campaign or a televised debate, or emerging consumer practices. To this purpose, all have in common an interest for unsolicited opinions of Internet users. This approach met considerable success in recent years: in 2015, ten years after the creation of the first companies in this area of social media software industry analysis generated $ 2.2 billion in revenue by the firm markets and markets, which also provides for the growth of this market to $ 17.9 billion in 2019.Taking distance with both positivism, which surrounds these technologies, and with an external and critical constructivism, this thesis seeks to describe the emergence of a new type of mediation that captures conversational traces from the social web for measuring opinion, and thus renews the epistemological and political content of this category. Assuming the plurality of the instruments and regimes that measure opinion, we follow a very diverse set of models built by start-ups and innovative companies. We first analyze some attempts made by them to redefine the concept of representative sampling, based on the selection of mobilized and influential publics. Secondly, we study the model that seems to prevail in this market, based on software seeking a comprehensive and continuous indexing of the online conversation. Measuring the opinion as a continuous flow of singular events, these instruments definitively break with the idea of representativeness and reactualize a conception of opinion as collective and discursive activity, focused on the relational dynamics of the online discussion. This regime thus abandons the quantification of majorities and minorities, to concentrate on the mobilizations and movements of online opinion
APA, Harvard, Vancouver, ISO, and other styles
5

Boulekrouche, Boubaker. "Génération cartographique à la volée pour des terminaux mobiles de type PDA." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23586/23586.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Mericskay, Boris. "Cartographie en ligne et planification participative : analyse des usages du géoweb et d'Internet dans le débat public à travers le cas de la Ville de Québec." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29535/29535.pdf.

Full text
Abstract:
Cette thèse se veut une première approche du rôle des technologies de cartographie en ligne à l’ère du Web social (géoweb) dans le domaine de la planification urbaine participative. Son ambition est de proposer, par la prise en compte des dimensions humaines et sociales des technologies, un angle de lecture et un cadre d’analyse innovant pour appréhender une thématique souvent victime de lectures trop rapides. Plus spécifiquement, l’objectif est d’appliquer une approche sociogéographique du géoweb à la problématique de l’aménagement urbain participatif avec la volonté de renouveler l’analyse de la participation publique en analysant le rôle de l’information géographique et des technologies en ligne (sites Web, réseaux sociaux, blogues, etc.). La question fondamentale posée est celle de l’utilisation du géoweb et d’Internet par les acteurs de la participation et de ses impacts sur les dynamiques participatives. Basée sur une étude de cas monographique fine et détaillée mobilisant une panoplie variée de méthodes (analyse documentaire, entrevues, observations directes et participantes), la démarche méthodologique basée sur l’observation de pratiques concrètes, le dialogue et les interactions avec les acteurs de la participation vise à la fois à rassembler des éléments empiriques et à en proposer une interprétation. Ce travail confronte ainsi des questionnements théoriques sur les nouveaux usages de l’iconographie territoriale numérique et du géoweb avec un corpus d’éléments empiriques issus du cas des procédures et des pratiques de participation publique de la ville de Québec. L’organisation de la thèse s’articule autour de 3 parties et 8 chapitres. Les 3 premiers chapitres, qui correspondent à la partie d’exploration de la thèse, proposent une vue d'ensemble de l’univers d’étude tant dans sa dimension sociopolitique (débat public, iconographie territoriale, etc.) que technologique (cartographie en ligne, SIG participatifs, géoweb). Les trois chapitres suivants sont consacrés à l’exposé des observations réalisées dans l’étude de cas consacrée à la Ville de Québec (présentation du terrain d’étude, iconographie territoriale mise en œuvre, usage des technologies par les acteurs). Enfin, la dernière partie, consacrée à l’interprétation, propose en premier lieu une synthèse sur le géoweb comme levier de participation puis propose de nouvelles perspectives de recherche.
APA, Harvard, Vancouver, ISO, and other styles
7

Alawad, Hiba. "De l'aménagement numérique des territoires à l'intégration du Web dans l'analyse géographique : nouvelles méthodes et perspectives pour les Systèmes d'Information Géographiques (SIG), la cartographie et la télédétection." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00569413.

Full text
Abstract:
Les Technologies d'Information et de Communication (TIC) facilitent la collecte et le traitement d'informations numériques, aussi nombreuses que variées, et sont de plus en plus sollicitées dans différents domaines (géographie, informatique, économie, statistiques etc.). La thèse a pour objectif de montrer les apports des TIC dans l'étude d'objets ou phénomènes géographiques dont la distribution est variable dans l'espace. Dans un premier temps, des inégalités territoriales de diffusion d'infrastructures Internet sont observées à différentes échelles, ce qui est communément appelé " la fracture numérique ". Pour remédier à ces inégalités, en particulier dans des espaces peu densément peuplés, la solution proposée est d'envisager une desserte maximale du territoire par la technologie non-filaire (Wi-Fi). Cette solution a été appliquée pour une commune drômoise (La Roche-sur-le-Buis). Les données (bâti) sont de type images et nécessitent un dispositif de repérage et de collecte approprié qui fait l'objet du second temps de la recherche. L'objectif a été de trouver une méthode relativement simple et accessible d'extraction de données du bâti sous un logiciel de géo-localisation en accès libre (type Google Earth). Ce logiciel permet d'accéder à des bases de données d'images raster grand public couvrant le monde entier. A une échelle fine, les méthodes habituelles de télédétection n'étant pas assez satisfaisantes, une autre méthode basée sur une stratégie de choix de la cible, de l'image (bonne résolution spatiale) et de la méthode de détection de l'objet spatial (bâti) à l'aide d'un Système d'Information Géographique (SIG) est proposée en mode vecteur. Elle est testée en France et en Syrie à différentes échelles. Les résultats montrent que la qualité de cette approche semi-automatique, voire automatique, est liée à certains paramètres dans les trois phases de la méthode : phase de choix des données, phase de traitement et phase d'analyse
APA, Harvard, Vancouver, ISO, and other styles
8

Feliachi, Abdelfettah. "Interconnexion et visualisation de ressources géoréférencées du Web de données à l’aide d’un référentiel topographique de support." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1179/document.

Full text
Abstract:
Plusieurs ressources publiées sur le Web de données sont dotées de références spatiales qui décrivent leur localisation géographique. Ces références spatiales sont un moyen favori pour interconnecter et visualiser les ressources sur le Web de données. Cependant, les hétérogénéités des niveaux de détail et de modélisations géométriques entre les sources de données constituent un défi majeur pour l’utilisation de la comparaison des références spatiales comme critère pour l’interconnexion des ressources. Ce défi est amplifié par la nature ouverte et collaborative des sources de données du Web qui engendre des hétérogénéités géométriques internes aux sources de données. En outre, les applications de visualisation cartographique des ressources géoréférencées du Web de données ne fournissent pas une visualisation lisible à toutes les échelles.Dans cette thèse, nous proposons un vocabulaire pour formaliser les connaissances sur les caractéristiques de chaque géométrie dans un jeu de données. Nous proposons également une approche semi-automatique basée sur un référentiel topographique pour acquérir ces connaissances. Nous proposons de mettre en oeuvre ces connaissances dans une approche d’adaptation dynamique du paramétrage de la comparaison des géométries dans un processus d’interconnexion. Nous proposons une approche complémentaire s’appuyant sur un référentiel topographique pour la détection des liens de cardinalité n:m. Nous proposons finalement des applications qui s’appuient sur des données topographiques de référence et leurs liens avec les ressources géoréférencées du Web pour offrir une visualisation cartographique multiéchelle lisible et conviviale<br>Many resources published on the Web of data are related to spatial references that describe their location. These spatial references are a valuable asset for interlinking and visualizing data over the Web. However, these spatial references may be presented with different levels of detail and different geometric modelling from one data source to another. These differences are a major challenge for using geometries comparison as a criterion for interlinking georeferenced resources. This challenge is even amplified more due to the open and often volunteered nature of the data that causes geometric heterogeneities between the resources of a same data source. Furthermore, Web mapping applications of georeferenced data are limited when it comes to visualize data at different scales.In this PhD thesis, we propose a vocabulary for formalizing the knowledge about the characteristics of every single geometry in a dataset. We propose a semi-automatic approach for acquiring this knowledge by using geographic reference data. Then, we propose to use this knowledge in approach for adapting dynamically the setting of the comparison of each pair of geometries during an interlinking process. We propose an additional interlinking approach based on geographic reference data for detecting n:m links between data sources. Finally, we propose Web mapping applications for georeferenced resources that remain readable at different map scales
APA, Harvard, Vancouver, ISO, and other styles
9

Plantin, Jean-Christophe. "Les pratiques de cartographie numérique en ligne : expression, remédiation, circulation." Compiègne, 2012. http://www.theses.fr/2012COMP2052.

Full text
Abstract:
Cette recherche doctorale porte sur les applications de cartographie numérique en ligne, également appelées « Web Mapping » ou « mashups » cartographiques. Elle propose d’analyser celles-ci lors de pratiques réflexives, à la fois individuelles et collectives, typiques de la « modernité seconde ». L’hypothèse défendue dans ce travail est que la carte peut soutenir une version personnelle d’un fait ou d’un événement (sa « remédiation ») par un-e internaute, en croisant les propriétés de la carte avec les possibilités d’expression et de participation des internautes en ligne. La démonstration se base sur l’analyse des cartes de radiation au Japon après l’explosion de la centrale de Fukushima le 11 mars 2011. Les ressources théoriques et méthodologiques des sciences de l’information et de la communication, de la géographie et de la sociologie des sciences et des techniques sont mobilisées à cet effet. L’exercice de la réflexivité en temps de crise sera mis en avant à travers l’analyse des étapes de création de données à même d’alimenter les cartes de radiation, la formation d’un public en ligne pour réaliser celles-ci, les actions qui leur sont déléguées et les manières dont elles sont mobilisées lors de leur circulation en ligne<br>This doctoral research aims focuses on webmapping applications, commonly called "mapping mashups". This work presents this practice by using the "reflexive modernity" framework. The rationale of this work is that online maps can be a means to remediate a fact or an event, using expression and participation properties of Web applications. This doctoral research presents the case study of the online mapping applications that were created after the March 11. 2011 Fukushima power plant explosion. The theoretical and methodological framework is constituted of notions from information &amp; communication sciences, "sciences, technics and society" and geography. Describing this reflexivity during time of crisis will focus on the steps to create radiation data online, the shape of a public onion to tackle this issue, actions that are delegated to maps and how they circulate online
APA, Harvard, Vancouver, ISO, and other styles
10

King, Dominique. "Modélisation cartographique du comportement des sols : basée sur l'étude de la mise en valeur du Marais de Rochefort /." Versailles : INRA, 1986. http://catalogue.bnf.fr/ark:/12148/cb34903089s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ben, Abbès Sarra. "Construction d'une cartographie de domaine à partir de ressources sémantiques hétérogènes." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_ben_abbes.pdf.

Full text
Abstract:
Ces dernières années, un effort considérable a été accompli pour le partage et la réutilisation des connaissances dans le cadre du Web sémantique. Un nombre important de ressources sémantiques ont été mises à disposition mais cette richesse et cette diversité compliquent la réutilisation de ressources existantes. Avant de chercher à réutiliser des ressources, un ingénieur de la connaissance doit commencer par dresser un état des lieux du domaine qui l'intéresse, identifier les ressources disponibles et les positionner les unes par rapport aux autres. Il lui faut se repérer dans un web foisonnant dont l'hétérogénéité sémantique ne cesse de croître. C'est le défi que cette thèse a cherché à relever. Nous proposons de cartographier le web sémantique sur un domaine particulier et nous avons mis au point une méthode qui permet de construire automatiquement de telles « cartographies de domaine » destinées à des ingénieurs de la connaissance souhaitant prendre connaissance des ressources disponibles pour un domaine particulier. Pour que ces cartographies soient centrées sur leurs centres d'intérêt, les ingénieurs fournissent en entrée un texte représentatif du domaine et de l'application visée, ce texte servant ensuite de pivot à l'ensemble de la méthodologie de construction de la cartographie. Nous avons défini un processus global de construction de cartographies qui se décompose en trois étapes, en supposant résolue l'étape préalable de sélection des ressources sémantiques. Le texte d'acquisition servant de point de départ, la première étape consiste à lier les ressources sélectionnées au texte : c'est une phase d'annotation sémantique qui projette les entités d'ontologies sur le texte afin d'identifier celles qui y sont mentionnées. La deuxième étape permet d'aligner les différentes ressources et ce processus d'alignement est lui-aussi guidé par le texte : les entités de ressources différentes sont rapprochées sur la base de leur proximité distributionnelle dans le texte. La troisième étape permet de détecter et au besoin de corriger les anomalies sur les correspondances obtenues à l'issue de la phase d'alignement ; cette phase permet aussi de détecter et d'afficher les correspondances remarquables qui peuvent aider l'ingénieur à prendre connaissance du matériau existant. Notre méthode d'alignement d'ontologies présente la particularité d'être guidée par le texte. L'alignement consiste classiquement à identifier des relations ou « correspondances » existant entre les entités issues d'ontologies différentes et il est utilisé dans plusieurs applications, comme l'enrichissement d'une ontologie, la fusion de plusieurs ontologies ou, ici, pour aider l'ingénieur de la connaissance à appréhender les ressources disponibles pour un domaine particulier. L'exploitation d'un texte permet de rapprocher des entités ontologiques qui n'ont ni la même étiquette - comme dans les méthodes d'alignement lexical - ni la même position dans les ressources d'origine - comme dans les approches structurelles. Nous proposons de différencier deux types de correspondance selon la nature de la relation existant entre les termes associés : si les termes ou étiquettes tendent à apparaître dans les mêmes phrases nous présumons l'existence d'une relation associative entre eux ; à l'inverse, s'ils se substituent l'un à l'autre, on peut faire l'hypothèse d'une relation d'équivalence. La construction d'une cartographie de domaine se fait à partir des résultats de l'alignement. Cette phase consiste à repérer les anomalies et les correspondances remarquables à présenter à l'ingénieur de la connaissance. Nous faisons en effet l'hypothèse que ces deux types de configurations sont importantes à repérer : les anomalies font apparaître des différences notables dans les choix de conceptualisation sur lesquels reposent les deux ressources alignées ; les configurations remarquables font au contraire ressortir les zones les plus centrales et les plus cohérentes de l'alignement proposé. Repérer et analyser ces configurations doit donc permettre à l'ingénieur de comprendre comment les ressources alignées se positionnent l'une par rapport à l'autre. L'ensemble de cette approche a été implémenté et testé sur différents cas d'usage dans les domaines de la biologie, de la géographie et de l'alimentation<br>In recent years, a large effort has been devoted to the sharing and reuse of knowledge in the semantic web. A number of semantic resources have been made available significantly but this richness and diversity complicate the reuse of existing resources. Before trying to reuse resources, the knowledge engineer must begin by drawing up an inventory of the domain's interest, identify available resources and put it against each other. He must locate in a "teeming" web where the semantic heterogeneity is growing. This is the challenge that this thesis has sought to address. We propose to map the semantic web on a particular domain and we have developed an automatic method to create such "domain cartographies" for engineers wishing to gain insught in the available resources on a particular domain. In order to have these cartographies suited to their interests, engineers give as an input a text which is representative of the domain and the target application and the text is a pivot to the whole the cartography process. We have defined an overall process of building cartographies that is composed of three steps, assuming resolved the prior selection step of semantic resources. The text acquisition is a starting point, the first step is to link the selected resources to the text : it is a step of semantic resources annotation which projects ontological entities on the text in order to identify those which are mentioned. The second step is to align different resources and the alignment process itself is also based on the text : the entities of different resources are aligned based on their distributional proximity in the text. The third step is to detect and correct the mapping anomalies obtained after the alignment step ; this step can also detect and display the remarkable mappings that can help the engineer to take knowledge of the existing resources. The originality of our ontology alignment method is to use the text. The alignment consists typically on identifying relations or mappings between entities from different ontologies. It is used in several applications, such as the ontology enrichment, the ontology merging or here, to help the knowledge engineer to understand the available resources of a particular domain. Using a text allows closer ontological entities that do not have the same label - as in the lexical alignment methods - or the same position in the original resources - as in structural approaches. We propose to distinguish between two types of mappings with the nature of the relationship between related terms : if the terms or labels tend to appear in the same sentences, we conclude an associative relationship between them ; on the contrary, if they are substituted to each other, we can conclude an equivalence relation. The building cartography process is based on the results of the alignment process. This step consists on identifying anomalies and to present the remarkable mappings to the knowledge engineer. We make the hypothesis that these two types of configurations are important to identify : anomalies show significant differences in the choice of conceptualization represented on the two aligned resources ; remarkable configurations are instead highlighting the most central parts and most consistent of the proposed alignment. Identify and analyze these configurations must allow the engineer to understand how resources are aligned to each other. This overall approach was implemented and tested on different use cases in the biology, geography and food domains
APA, Harvard, Vancouver, ISO, and other styles
12

Gross, Clauoe. "Opérations topologiques et géométriques sur les multicartes combinatoires : application à la cartographie thématique." Université Louis Pasteur (Strasbourg) (1971-2008), 1989. http://www.theses.fr/1989STR13032.

Full text
Abstract:
A partir de la notion de cartes combinatoires topologiques, sont définis un modèle de carte topologique qui permet de décrire complètement la topologie d'une carte planaire et le modèle de carte géométrique qui associe à une carte topologique une représentation dans un plan euclidien. Ceci permet le développement d'un algorithme de saisie de cartes planaires qui détecte automatiquement la fermeture des polygones
APA, Harvard, Vancouver, ISO, and other styles
13

Palsky, Gilles. "La Cartographie thématique en France : recherches sur ses origines et son évolution jusqu'à la fin du 19è siècle." Paris 1, 1990. http://www.theses.fr/1990PA010508.

Full text
Abstract:
Au 19e siècle, le langage cartographique ne s’applique plus seulement à la description géométrique traditionnelle de la surface terrestre. Il s’exprime de nouvelles connaissances, de nombreux thèmes originaux. La création des éléments d’un "style thématique" équivaut à une profonde mutation du code cartographique. Celle-ci est préparée, dans l’esprit et dans la forme, par certaines cartes spéciales des 17e et 18e siècles, ainsi que par les premiers diagrammes statistiques. Puis, dans la première partie du 19e siècle, quelques auteurs pionniers inventent les principales méthodes de cartographie quantitative : carte choroplèthe, carte par points ou carte de flux. La cartographie appuie alors des démonstrations du ressort de l’économie politique, de la statistique morale et sociale, de la médecine. Apres 1850, les réflexes perceptifs sont acquis, et les méthodes graphiques se diffusent largement, notamment dans les publications des bureaux statistiques des grandes administrations publiques, ou plus tardivement, en géographie. La profusion des travaux de cartographie quantitative conduit alors les statisticiens à réfléchir sur le classement et la standardisation des procédés graphiques, à poser les jalons d’une sémiologie graphique<br>In the 19 century, cartographic language is not solely employed for the traditional geometric description of the earth's surface, but is a mean to express, as well, a new knowledge and original themes. The elements of a "thematic style" are created, which leads to a deep renewal of the cartographic code. This was prepared, in form and esprit, by special maps of the 17th and 18th centuries, and the first statistical diagrams. Then in the first part of the 19th century pioneer authors invented the basic methods in quantitative cartography. They were used to illustrate demonstrations in the field of economics, moral and social statistics, and medicine. After 1850, apprehensive reflexes were acquired, and cartographic methods widely diffused, particularly in the publications by the statistical offices of the great public administrations,and, later, in geographical works. That profusion led the statisticians to lay the foundations of a graphic semiology, to study the classification and standardization of graphic processes
APA, Harvard, Vancouver, ISO, and other styles
14

Dine, Abdelhamid. "Localisation et cartographie simultanées par optimisation de graphe sur architectures hétérogènes pour l’embarqué." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS303/document.

Full text
Abstract:
La localisation et cartographie simultanées connue, communément, sous le nom de SLAM (Simultaneous Localization And Mapping) est un processus qui permet à un robot explorant un environnement inconnu de reconstruire une carte de celui-ci tout en se localisant, en même temps, sur cette carte. Dans ce travail de thèse, nous nous intéressons au SLAM par optimisation de graphe. Celui-ci utilise un graphe pour représenter et résoudre le problème de SLAM. Une optimisation de graphe consiste à trouver une configuration de graphe (trajectoire et carte) qui correspond le mieux aux contraintes introduites par les mesures capteurs. L'optimisation de graphe présente une forte complexité algorithmique et requiert des ressources de calcul et de mémoire importantes, particulièrement si l'on veut explorer de larges zones. Cela limite l'utilisation de cette méthode dans des systèmes embarqués temps-réel. Les travaux de cette thèse contribuent à l'atténuation de la complexité de calcul du SLAM par optimisation de graphe. Notre approche s’appuie sur deux axes complémentaires : la représentation mémoire des données et l’implantation sur architectures hétérogènes embarquées. Dans le premier axe, nous proposons une structure de données incrémentale pour représenter puis optimiser efficacement le graphe. Dans le second axe, nous explorons l'utilisation des architectures hétérogènes récentes pour accélérer le SLAM par optimisation de graphe. Nous proposons, donc, un modèle d’implantation adéquat aux applications embarquées en mettant en évidence les avantages et les inconvénients des architectures évaluées, à savoir SoCs basés GPU et FPGA<br>Simultaneous Localization And Mapping is the process that allows a robot to build a map of an unknown environment while at the same time it determines the robot position on this map.In this work, we are interested in graph-based SLAM method. This method uses a graph to represent and solve the SLAM problem. A graph optimization consists in finding a graph configuration (trajectory and map) that better matches the constraints introduced by the sensors measurements. Graph optimization is characterized by a high computational complexity that requires high computational and memory resources, particularly to explore large areas. This limits the use of graph-based SLAM in real-time embedded systems. This thesis contributes to the reduction of the graph-based computational complexity. Our approach is based on two complementary axes: data representation in memory and implementation on embedded heterogeneous architectures. In the first axis, we propose an incremental data structure to efficiently represent and then optimize the graph. In the second axis, we explore the use of the recent heterogeneous architectures to speed up graph-based SLAM. We propose an efficient implementation model for embedded applications. We highlight the advantages and disadvantages of the evaluated architectures, namely GPU-based and FPGA-based System-On-Chips
APA, Harvard, Vancouver, ISO, and other styles
15

Delort, Jean-Yves. "Modèles de navigation sur le Web basés sur le contenu." Paris 6, 2003. http://www.theses.fr/2003PA066396.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Gargallo, Yannick. "Trouver sa place sur le web : les organisations et l'apprentissage du web." Toulouse 2, 2007. http://www.theses.fr/2007TOU20087.

Full text
Abstract:
Cette recherche analyse la construction sociale du web par des organisations professionnnelles françaises (22 associations, 8 institutions et 63 entreprises). A travers la création et la gestion des sites web, nous questionnons l'adoption des technologies de l'information et de la communication (TIC) par les organisations. Les sites web constituent un point d'entrée pour étudier les rôles d'intermédiations des TIC au sein des organisations, d'autant plus que ces dernières sont fréquemment couplées et disponibles sur une même interface. L'utilisation conjointe de ces TIC supporte la co-construction des activités des organisations selon principalememt cinq axes : la coordination, la coopération, le travail, la diffusion d'information et la commercialisation. L'analyse des différents types d'hyperliens et du réseau de leur entrelacs met en valuer la formation de groupes selon des principes de mimétismes et de discriminations. Nous avons également développé une réflexion sur les différentes formes de l'échange qui entourent la création des hyperliens. Sur cet espace, où la coopération et différentes formes du don occupent une place essentielle, nous avons souligné la co-existence et la combinaision de différentes formes de transactions. L'étude du web selon cette approche nous permet de mieux cerner les logiques qui sous-tendent la construction de cet espace et des mondes qui en découlent. L'hyperlien nous a servi de révélateur des échanges inter-organisationnels où, la présence d'un hyperlien sur un site n'est pas le fruit du hasard mais est, au contraire, porteuse de sens et témoin d'une relation tout comme de processus décisionnels<br>This research analyzes the web social construction by French professionnal organizations (22 associations, 8 institutions and 63 companies). Through the creation and the management of web sites, we talk about the adoption of information technologies and communication (ITC) by organizations. We consider the web sites as an entry to study the roles of the ITC intermediations within organizations, especially since these technologies are frequently coupled and available on the same interface. The joint use of these ITC supports the co-construction of the activities of organizations according to mainly five axes : coordination, cooperation, work, broadcasting of information and trade. Analysis of the various types of hyperlinks and the network of their interlacing emphasizes the formation of groups according to principles of imitations and discriminations. We also developed a reflection on the various forms of exchange which surround the creation of the hyperlinks. On this space, where the cooperation and the various forms of the gift occupy an essential place, we underlined the coexistence and the combination of various transactions forms. This study of the web allows us to understand better the logics which underlies the construction of this space
APA, Harvard, Vancouver, ISO, and other styles
17

Abasht, Behnam. "Cartographie fine d'un QTL de l'état d'engraissement sur le chromosome 5 de la poule." Rennes, Agrocampus Ouest, 2006. http://www.theses.fr/2006NSARI044.

Full text
Abstract:
Cette étude a été menée pour cartographie finement un QTL pour l'engraissement déjà identifié sur le chromosome 5 de la poule, dans un croisement entre les lignées expérimentales grasse (LG) et Maigre (LM). L'approche " test sur descendance d'individus recombinants " a été utilisée. L'analyse QTL d'un nouveau dispositif F2, produit par un nouveau croisement entre LG et LM, nous a permis d'identifier deux mâles F1 (parmi les 3) hétérozygotes aux QTL d'engraissement du GGA5. Elle a aussi mis en évidence une interactionentre ces QTL et le sexe et permis d'identifier deux régions QTL ; l'une proximale et l'autre distale, qui contiennent respectivement un QTL mâle et un QTL femelle. Pour localiser finement ces deux QTL, 3 fils backcross recombinants de chacun des deux pères F1 hétérozygotes aux QTL ont été testés sur descendance. Afin d'identifier les points de recombinaison de nouveaux marqueurs du GGA5 ont été développés et ont permis de préciser la cartographie RH de ce chromosome. L'étude du polymorphisme de ces marqueurs par la méthode SSCP a permis d'obtenir 13 nouveaux marqueurs polymorphes dans les régions QTL. L'étude de la région QTL proximale n'a pas permis de préciser davantage la localisation du QTL. En revanche, l'analyse de la région distale à partir d'un mâle backcross 1 recombinant a permis de localiser le QTL femelle dans une régin de 6 ;9 Mb. Un QTL mâle présent dans cette même région a été analysé grâce à 2 générations sucessives d'individus backcross recombianants. Il a pu ainsi être localisé dans une région de 4,3 Mb en extrémité de GGA5<br>This study was aimed to fine map fatness QTL on chicken chromosome 5 which have been previously identified in an F2 design derived from experimental Fat and Lean lines. Analyzing a new F2 design, established from the same fat and lean lines, led to identify 2 F1 sires (out of 4 F1 sires), heterozygous for fatness QTL on GGA5. The analyses also revealed an interaction between QTL and sex giving rise to male- and female-specific QTL, located in the proximal and the distal parts of G GA5 respectively. Fine mapping of these QTL was performed by the recombinant progeny testing method in two successive backcross generations. Besides high resolution RH map of developed to refine the position of recombination events. In the first backcross generation recombinant males were progeny tested. They were descended from each of the 2 QTL heterozygous F1 sire mated to lean line females. QTL aanalyses in the backcross-2 families allowed mapping of the female QTL in lesss than 7 Mb at the distal part of GGA5. They also identified a new male QTL location in this region. The study of the proximal par of GGA5 did not allow refining the QTL location in this region. Refining of the male QTL location in the distal part of GGA5 was performed by progeny testing 3 recombinant backcross-2 males generated from the backcross-1 sire, heterozygous for the male QTL. Analyses of the backcross -3 families allowed to map this QTL to 4. 3 Mb at the distal end of GGA5
APA, Harvard, Vancouver, ISO, and other styles
18

Bihanic, David. "Espace, lieux et "hypercartes" : étude sur la spatialité des réseaux et la géographie d'information." Paris 1, 2007. http://www.theses.fr/2007PA010724.

Full text
Abstract:
A l'heure où les réseaux (à la fois techniques et humains) défmissent de nouveaux repères topologiques/topographiques et géographiques du monde contemporain, qu'en est-il de la "pertinence" de nos représentations de l'espace, des lieux, décrivant des organisations centralisées, territoriales ajustant des « calculs» de distance et de proximité périphérique? Qu'advient-il de notre propre relation (au sens phénoménologique, subjectif et existentiel) à l'espace? S'élabore-il une nouvelle spatialité contemporaine des réseaux autorisant des "points" de passage, de rencontre entre deux réalités: celle des lieux géographiés, localisés, situés et celle des lieux reliés, interconnectés, distribués ? Cette thèse se propose d'examiner ces questions dans le cadre de l'étude d'un nouveau système, dispositif de représentation cartographique (développé conjointement à l'apparition de nouveaux paradigmes) : 1'« hypercarte». Il s'agira alors d'en comprendre ses spécificités et particularités « fonctionnelles» - qui la distinguent d'une carte "classique" - d'analyser ses modes d'exploration et de navigation, de parcours, de lecture et de traitement de l'information ainsi que ses arrières plans conceptuels et théoriques et méthodes qui sous-tendent sa réalisation.
APA, Harvard, Vancouver, ISO, and other styles
19

Naudin, Antoine. "Impact des connaissances initiales sur la calculabilité distribuée." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0259/document.

Full text
Abstract:
Dans cette thèse, nous étudions l’impact des connaissances sur la calculabilité distribuée de problèmes au sein des réseaux distribués. Dans une première partie, nous caractérisons les connaissances nécessaires et suffisantes permettant de résoudre des problèmes tels la cartographie, l’élection et la k-élection dans un modèle particulier: les participants inconnus. Pour chacun des problèmes étudiés, une condition caractérisant les connaissances nécessaires et suffisantes est fournie et un algorithme utilisant toute connaissance satisfaisant notre condition est proposé (et montré correct). Nous étendons ensuite le modèle aux graphes anonymes. Avec la même méthodologie, nous présentons une condition nécessaire sur la connaissance à fournir aux processus pour résoudre le problème de l’élection. Dans la seconde partie, nous étudions l’impact des connaissances locales sur la calculabilité du problème de l’exploration de graphes anonymes avec arrêt. Nous introduisons un nouveau modèle d’agent mobile doté d’un capteur spécial, nommé jumelles, lui permettant de percevoir le graphe induit par les sommets adjacent à sa position dans le réseau. Dans ce modèle, nous caractérisons exactement les graphes explorables sans connaissance globale et nous proposons un algorithme les explorant. Cette connaissance locale apportée à un coût car la complexité de tout algorithme d’exploration pour ces graphes croît plus vite que toute fonction calculable. Pour finir, nous montrons que de larges familles de graphes peuvent être explorées efficacement avec jumelles: graphes triangulés, graphes de Johnson et certaines triangulations planaires<br>In this study, we show how knowledge impacts the computability in distributed systems. First, we characterize what we need to know to elect in the unknown participant model. This model is a natural extension for the message passing model that formalises dynamicity that occurs in some networks. We give a necessary and sufficient condition on the knowledge needed to solve the following fundamental problems : map construction, leader election and k-leader election. For each of them, we provide an algorithm solving the problem using any knowledge satisfying our condition. Then, we extend the model to anonymous networks. We characterize, with the same methodology, the knowledge needed to solve an election in this model and we provide an algorithm using such a knowledge and a bound on the size of the network. In the second part, we study the impact of local knowledge on the computability of the anonymous graph exploration problem. We introduce a new model of mobile agents where an agent is endowed with binoculars, a local sensor permitting to perceive the graph induced by the vertices adjacent to its location. In this model, we characterize the graphs that can be explored by a single mobile agent without any global information and we provide an algorithm exploring all of them. Unfortunately, universal algorithm has a cost : The number of moves required by such an algorithm cannot be bounded by a computable function. Finally, we prove that large classes of graphs like chordal graphs, Johnson graphs, . . . can be explored in a linear number of moves using binoculars by providing an exploration algorithm for the family of Weetman graphs
APA, Harvard, Vancouver, ISO, and other styles
20

Baudemont, Frédéric. "Analyse numérique des formes de relief sur les modèles numériques de terrain." Université de Marne-la-Vallée, 1999. http://www.theses.fr/1999MARN0063.

Full text
Abstract:
Dans les domaines des sciences de la terre, des sciences de l'univers, de la geographie, la teledetection est parfois l'un des seuls moyens d'etudier la surface du sol. La modelisation et l'analyse geometrique et texturale de cette surface au moyen de modeles numeriques de terrain ou mnt, permettent d'obtenir ou de preciser la nature geologique et geomorphologique du terrain que l'on observe fournissant ainsi une source considerable de donnees morphologiques, geometriques ou texturales aussi bien a l'echelle locale qu'a l'echelle regionale en fonction de la nature des objets et des entites que l'on souhaite etudier. Les mnt se presentent, la plupart du temps, sous la forme de grilles regulieres dite raster ou non regulieres tin (triangulated irregular network). L'objectif de cette these est d'utiliser tous les aspects du mnt a diverses echelles : morphologique, texturale, voire a l'echelle du pixel. Le premier aspect consiste a decrire cette surface bidimensionnelle pour chercher a mettre en evidence les informations intrinseques que peut fournir la geometrie du mnt. Dans ce cadre, trois approches ont ete developpees. La premiere dite du voxel wall, la seconde appelee l'ursin procedure et la troisieme qui utilise des informations de courbures locales. Le but est de savoir si la surface decrite par le mnt est en relation ou traduit des structures profondes et les actions qui ont defini sa forme. Le deuxieme aspect considere le mnt comme une simple image a laquelle on peut appliquer des outils dedies au traitement d'image. Le troisieme aspect aborde le mnt dans l'univers spectral permettant par filtrage, de degager les structures principales d'une forme en fonction de certains criteres comme l'orientation, la taille, etc. L'ensemble fournit de nouveaux indices d'analyse des mnt et complete les methodes d'investigation informatiques afin d'exploiter les donnees altimetriques
APA, Harvard, Vancouver, ISO, and other styles
21

Mezaour, Amar-Djalil. "Recherche ciblée de documents sur le Web." Paris 11, 2005. http://www.theses.fr/2005PA112048.

Full text
Abstract:
Depuis sa création, le web a vu sa taille croître de manière phénoménale rendant la recherche d'informations difficile et fastidieuse. Cette difficulté est perceptible lorsqu'il s'agit de rechercher des documents complexes tels que des documents thématiques. Ceci se traduit par des réponses nombreuses et souvent imprécises. Il est, dans ce cas, nécessaire de recourir à un expert humain pour filtrer les réponses impertinentes. Cette imprécision s'explique par le principe même du fonctionnement des outils de recherche actuels de documents sur le web. En effet, les requêtes mots clés utilisés par la plupart des moteurs de recherche sont peu expressives pour caractériser les documents souhaités. Par ailleurs, les techniques utilisées par ces moteurs pour constituer leur index de documents, sur lequel les requêtes sont évaluées, parcourent le web dans le but de rapatrier tout type de documents. Je montre dans cette thèse que l'hétérogénéïté des index des moteurs de recherche et leur technique non ciblée pour alimenter ces index peut être source d'imprécision lors de l'évaluation des requêtes. Pour améliorer la précision de la recherche sur le web, je propose WeQueL, un langage de requêtes déclaratif et multicritères. Par ce langage, je montre qu'une façon d'augmenter la précision des requêtes mots clés consiste à les combiner sur différentes parties de la structure d'un document. Je propose également une approche sélective d'exploration du web guidée par une requête WeQueL. Cette approche repose sur une technique d'anticipation du score d'un document sans avoir encore rapatrié son contenu. Pour cela, un système d'apprentissage bayésien est mis en place<br>Since its creation, the web saw its size growing in a phenomenal way making the search of information difficult to achieve. In fact, when searching for complex information like thematic documents for example, the answers are numerous and often unprecise. In this case, it is necessary to resort to a human expert so that the irrelevant answers can be discarded. This inaccuracy is explained by the principle on which the current web tools searched the documents. Indeed, the keyword-based queries, used by most of the popular search engines, are not sufficiently expressive to characterize the desired documents. In addition to this, the techniques used by these search engines to populate their index warehouses of documents, on which the requests are evaluated, aim at downloading any kind of document from the web without any search restriction. I show in this dissertation that the heterogeneïty of such warehouses can cause inaccuracy when evaluating a keyword-based query. To improve the web search precision, I propose WeQueL, a multicriteria query language for a better characterization of web documents. With WeQueL queries, I show that combining different keyword-based criteria targeted on specific parts of a document structure can increase significantly the precision of keyword-based searchs. I also propose a selective web crawling approach that is directed by a WeQueL query. This approach is based on the anticipation of the score of a document without having its content. To do this, I propose a bayesian training system that uses a set of statistical measures
APA, Harvard, Vancouver, ISO, and other styles
22

Rodriguez, Hélène. "Réflexion théorique sur la prospective du web." Montpellier 3, 2005. http://www.theses.fr/2005MON30015.

Full text
Abstract:
L'approche du web et de la prospective va dépendre du cadre d'observation considéré. La vision cadrée identifie un terrain d'étude et pose les limites du système. Les interactions présentes dans la considération du cadre d'observation sont alors signifiantes et vont orienter les pistes prospectives. Le web sera considéré à travers trois cadres d'observation : le web comme système fermé qui représente les sites connectés, le web comme système ouvert qui fait apparaître le système socio-technique relatif à la présence des acteurs, le web comme système complexe qui répond aux principes de la complexité. Prenant appui sur la théorie des systèmes et à l'aide de la méthode de l'observation participante adaptée à chaque cadre d'observation, les pistes prospectives vont différer et se compléter. Le web en système fermé tend vers une recherche structurelle, le web système ouvert évolue au rythme de la construction sociale, le web devenu complexe échappe aux acteurs et présente son évolution autonome<br>The approach of the web and prospective will depend on the considered framework of observation. The framed vision identifies a basis of study and assigns the limits of the system. The current interactions, in the considered framework of observation, are then significant and will direct the prospective trails. The web will be considered through three frameworks of observation : the web as closed system which represents the connected sites, the web like open system which reveals the socio-technical system related to the presence of the actors, the web considered as a complex system which answers the principles of complexity. Taking support on the system theory and using the method of the participating observation adapted to each framework of observation, the prospective tracks will differ although being complementary. The web as a closed system trends towards a structural research ; the web as an open system evolves at the rhythm of social construction ; the web as a complex system escapes the actors and presents an autonomous evolution
APA, Harvard, Vancouver, ISO, and other styles
23

Taviaux, Sylvie. "Hybridation in situ sur chromosomes métaphysiques et noyaux interphasiques : cartographie physique, intérêts et perspectives." Montpellier 1, 1993. http://www.theses.fr/1993MON1T012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Gokhool, Tawsif Ahmad Hussein. "Cartographie dense basée sur une représentation compacte RGB-D dédiée à la navigation autonome." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4028/document.

Full text
Abstract:
Dans ce travail, nous proposons une représentation efficace de l’environnement adaptée à la problématique de la navigation autonome. Cette représentation topométrique est constituée d’un graphe de sphères de vision augmentées d’informations de profondeur. Localement la sphère de vision augmentée constitue une représentation égocentrée complète de l’environnement proche. Le graphe de sphères permet de couvrir un environnement de grande taille et d’en assurer la représentation. Les "poses" à 6 degrés de liberté calculées entre sphères sont facilement exploitables par des tâches de navigation en temps réel. Dans cette thèse, les problématiques suivantes ont été considérées : Comment intégrer des informations géométriques et photométriques dans une approche d’odométrie visuelle robuste ; comment déterminer le nombre et le placement des sphères augmentées pour représenter un environnement de façon complète ; comment modéliser les incertitudes pour fusionner les observations dans le but d’augmenter la précision de la représentation ; comment utiliser des cartes de saillances pour augmenter la précision et la stabilité du processus d’odométrie visuelle<br>Our aim is concentrated around building ego-centric topometric maps represented as a graph of keyframe nodes which can be efficiently used by autonomous agents. The keyframe nodes which combines a spherical image and a depth map (augmented visual sphere) synthesises information collected in a local area of space by an embedded acquisition system. The representation of the global environment consists of a collection of augmented visual spheres that provide the necessary coverage of an operational area. A "pose" graph that links these spheres together in six degrees of freedom, also defines the domain potentially exploitable for navigation tasks in real time. As part of this research, an approach to map-based representation has been proposed by considering the following issues : how to robustly apply visual odometry by making the most of both photometric and ; geometric information available from our augmented spherical database ; how to determine the quantity and optimal placement of these augmented spheres to cover an environment completely ; how tomodel sensor uncertainties and update the dense infomation of the augmented spheres ; how to compactly represent the information contained in the augmented sphere to ensure robustness, accuracy and stability along an explored trajectory by making use of saliency maps
APA, Harvard, Vancouver, ISO, and other styles
25

Beauvisage, Thomas. "Sémantique des parcours des utilisateurs sur le Web." Paris 10, 2004. http://www.theses.fr/2004PA100094.

Full text
Abstract:
Cette thèse propose une description des parcours sur le Web sur la base de données de trafic centrées-utilisateur. Nous élaborons des méthodes et des outils pour enrichir de telles données afin de rendre compte de la forme, de la temporalité et du contenu des parcours. Nous les appliquons à des données issues de panels résidentiels représentatifs, et construisons une typologie des sessions en cinq classes sur la base de leur typologie. Confrontés aux contenus visités et aux pratiques et territoires individuels, ces parcours-type renvoient à trois modes d'appréhension prototypiques du Web : le familier, parcours rapides tournés vers des flux d'information et de communication ; l'occasionnel, parcours plus complexes orientés vers les services et l'achat ; et l'exploratoire, sessions éclatées dédiées à la découverte au sein de recherches ciblées. Ce travail a été mené au laboratoire de sciences humaines de France Télécom R&amp;D, dans le cadre de l'étude des usages d'Internet à domicile<br>This thesis proposes a description of users' paths through the Web on the basis of user-centric traffic data. We elaborate methods and tools to enrich such data, in order to represent the form, the temporality and the content of Web paths. We apply them to traffic data collected from representative panels of French Internet users at home, and build a five-classes typology of Web sessions on the basis of their typology and their rythm. Confronted to the visited contents and to individual practices and territories, these types of paths refer to three modes of apprehension of Web contents : the familiar, fast paths dedicated to information and communication streams ; the occasional, more complexes paths related to Web srvices and e-commerce ; and the exploratory, dispersed sessions dedicated to discovery within targeted searches. This work was conducted at the Social Sciences laboratory at France Telecom R&amp;D
APA, Harvard, Vancouver, ISO, and other styles
26

Nguyen, Van Toan. "Développer une autonomisation guidée de l'apprenant en français sur objectifs spécifiques : vers un apprentissage fondé sur le Web (web based learning)." Thesis, Bordeaux 3, 2015. http://www.theses.fr/2015BOR30001/document.

Full text
Abstract:
Cette recherche se situe au croisement de quatre domaines différents : la didactique du FOS ; l’analyse de discours ; l’autonomisation de l’apprenant et l’apprentissage sur le web. Nous avons recueilli un corpus qui nous a fourni des données permettant de concevoir des activités discursives et contextualisées exploitant le web (web-based learning, web comme outil de communication, web comme artéfact intégrant dans l’environnement d’apprentissage) pour l’apprentissage du français dans le cadre du FOS – tourisme. Nous avons choisi de mettre l’accent sur l’activité discursive parce qu’elle nous permet de répondre à deux questions : - que faut-il enseigner/apprendre dans un contexte du FOS du tourisme ? - quelles sont les caractéristiques des discours impliqués ? Notre corpus comporte deux guides imprimés sur le Vietnam (environ 1000 pages) et le discours oral des guides touristiques transcrit à partir des enregistrements dont la durée totale est d’environ 10 heures continues. Il s’agit donc à la fois de l’extraction de données dans le corpus, du transfert de ces données à la didactique et de leur réutilisation directe dans la conception des activités d’apprentissage. Le transfert consiste en l’application des conclusions tirées de l’analyse du corpus pour l’élaboration des activités discursives tandis que la réutilisation de ces données consiste en d’extractions des éléments du corpus pour les intégrer aux activités discursives. Pour analyser le corpus et pour structurer, programmer les activités discursives, nous avons fait appel au langage XML et conçu des scripts informatiques permettant son exploitation (analyse et activités d’apprentissage). Enfin, notre recherche débouche sur une perspective didactique. Nous recommandons la démarche discursive pour la conception d’un programme de formation et d’activités discursives. Nous illustrons cette démarche par des activités d’apprentissage concrètes. Il est à noter que s’il agit d’une étude exploratoire et non expérimentale<br>This research lies at the intersection of four different areas: French for specific purposes; discourse analysis; learner autonomy and web based learning. We’ve collected a corpus which provided data for designing contextualized discursive activities exploiting the web (web-based learning : web as a communication tool, web as artifact integrated into the learning environment ) in the context of FOS for tourism. We chose to focus on the discursive activity because it allows us to answer two questions: - What should be taught / learned in a context of FOS for tourism ? - What are the characteristics of speech involved ? Our corpus comprises two printed travel guides on Vietnam (approximately 1000 pages) and oral discourse transcribed from records of tour guide speeches (about 10 hours in total). It is therefore both data mining in the corpus, the transfer of this data for applied linguistic and their direct reuse in the design of learning activities. The transfer is the application of the conclusions drawn from the analysis of the corpus for the development of discursive activities while the reuse of these data consists in extracting corpus elements to integrate them into discursive activities. To analyze the corpus, to structure and to program discursive activities, we used the XML and developed scripts for computer operations (analysis and learning activities ). Finally, our research leads to a didactic perspective. We recommend the discursive approach for the design of syllabus and discursive learning activities. We illustrate this approach with some learning activities. It should be noted that this is an exploratory study and not an experimental one
APA, Harvard, Vancouver, ISO, and other styles
27

Bontan, Laëtitia Paul Jonathan Pujol Monique Larouk Omar. "Evaluation des sites Web "Fédérateurs"." [S.l.] : [s.n.], 2003. http://www.enssib.fr/bibliotheque/documents/dcb/M-2003-RECH-10-bontan.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Girardeau-Montaut, Daniel. "Détection de changement sur des données géométriques tridimensionnelles." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001745.

Full text
Abstract:
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
APA, Harvard, Vancouver, ISO, and other styles
29

Gustiuc, Mihai. "Influence d'un émetteur de chaleur sur la dispersion particulaire dans une ambiance ventilée." La Rochelle, 2008. http://www.theses.fr/2008LAROS255.

Full text
Abstract:
La présente étude concerne l'impact d’un convecteur électrique dans une ambiance ventilée sur les phénomènes de dispersion et de dépôt particulaire. Elle vise à développer les connaissances sur ce thème et de mettre au point des outils de prédiction de la qualité de l'air intérieur des bâtiments dans le but d'évaluer l'exposition globale des personnes. Les caractéristiques essentielles des particules ainsi que les différents phénomènes, pouvant influencer le comportement des particules en suspension dans l’air, ont tout d’abord été répertoriés, puis c’est les différentes forces agissant sur les particules ainsi que les critères pour que leurs influences soient significatives qui ont également été proposés. Ainsi selon les cas, certaines forces peuvent devenir carrément négligeables face aux prédominantes. Nous avons mené en premier lieu une démarche expérimentale pour montrer et quantifier l’influence d’un émetteur de chaleur sur le dépôt particulaire à l’intérieur d’une enceinte test. Nous constatons alors que la présence du convecteur semble accélérer le dépôt pour les petites particules et avoir un effet contraire pour celles de plus grande taille. Conscients des limites de notre approche globale, nous avons également décidé de coupler à cette démarche expérimentale une étude numérique permettant d’acquérir une connaissance beaucoup plus fine des phénomènes pouvant influencer le dépôt particulaire, et en particulier, la présence d’un convecteur de chaleur. La résolution des deux phases, fluide et dispersée, a été réalisée à l’aide d’un code commercial de type CFD (StarCD). Deux cas de pollution particulaire initiale on été simulés pour la phase dispersée. Dans le premier cas le champ initial de concentration est considéré homogène, alors que dans le deuxième cas, nous avons considéré une injection ponctuelle du polluant<br>The present study is dealing with the physical aspects of the role played by the presence of an electrical heater within a ventilated enclosure into the particle dispersion and particle deposition phenomena. This study aims to develop the existent reported date within the subject area and to open the way towards prediction tools for the air quality in buildings. Main characteristics of particles as well as different phenomena which may influence their behaviour in air were reviewed. Different forces acting on the particles are presented in the same time with the criteria used to evaluate their weight. Depending on the studied case some of these forces may be considered as negligible. An experimental approach was developed in a first place in order to elucidate the influence of the presence of the electrical heater on the particle deposition. It is shown that small particles concentration tends to decay faster. The opposite was found for the larger ones. Being aware of the limits of the previous global approach, we decided to couple this experimental investigation to a numerical one. The numerical approach allows to obtain more detailed results. The commercial code CFD StarCd was used. Two cases of initial concentration were studied: namely initial homogenous concentration and one point particle injection
APA, Harvard, Vancouver, ISO, and other styles
30

Alshawa, Majd. "Contribution à la cartographie mobile : développement et caractérisation d’un système basé sur un scanner laser terrestre." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2010/ALSHAWA_Majd_2010.pdf.

Full text
Abstract:
La cartographie mobile est un sujet qui se démocratise et gagne en maturité avec la demande croissante des données tridimensionnelles urbaines et périurbaines. La présente thèse aborde la conception d’un système de cartographie mobile terrestre à faible coût avec la particularité d’avoir adapté un scanner laser terrestre pour une utilisation en mode mobile à faible vitesse. Notre objectif n’est pas de rivaliser en termes de performances avec les systèmes commerciaux mais plutôt de s’approprier les compétences scientifiques et technologiques qui permettront de proposer des solutions dans le domaine de cartographie mobile. Les opérations préalables à la mise en route du système, tel que la synchronisation et l’étalonnage sont exposées. Puis, des méthodes basées sur l’ajustement des modèles polynomiaux sont développées pour convenir aux différents trajets parcourus. Les données issues des différents capteurs (GPS/AHRS/TLS) sont testées et filtrées avant de les intégrer dans l’équation de géoréférencement direct. Il en résulte un nuage de points corrigé. Une étude exhaustive sur l’effet des erreurs de chaque capteur sur le nuage de points résultant est établie. La précision théorique est confrontée avec des jeux des données de référence pour valider l’analyse des erreurs. Un appareil photo numérique calibré est intégré dans notre système en tant que capteur de navigation. Une solution photogrammétrique est proposée pour améliorer la précision de la trajectométrie préalablement calculée par l’intégration des données GPS/AHRS. Pour conclure la thèse, une ouverture vers la modélisation géométrique est proposée pour exploiter la géométrie et la précision des données laser terrestres fournies par le système. Le prototype développé permet de fournir des nuages de points d’une précision de l’ordre de 10 à 15cm à une distance moyenne de 20 m<br>Mobile mapping technology has been developing with the growing demand of three-dimensional urban and peri-urban data. This thesis approach is based on the design of a low cost terrestrial mobile mapping system with the adaptation of a Terrestrial Laser Scanner for low dynamics. Our goal is not to compete in performance with commercial systems but rather to appropriate scientific and technological skills which will help in proposing solutions in the field of mobile mapping. Necessary operational settings, such as synchronization and calibration are explained. Then, some methods based on the adjustment of polynomial models are developed according to the traveled paths. Data from various sensors (GPS/ AHRS/TLS) are filtered and tested before their integration by direct georeferencing equation in order to produce a correct point cloud. A comprehensive study on the influence of errors of each sensor on the resulting point cloud is established. The theoretical precision is compared with reference data in order to validate the error analyze. A digital calibrated camera is integrated in the system as a navigation sensor. A photogrammetric solution is proposed to improve the accuracy of the orientation and the position calculated by integrating GPS/ AHRS. At the end of this thesis, an approach towards automatic modeling is proposed to make use of the geometry and precision provided by the system. The designed prototype supplies point clouds whose precision is about 10 to15 cm at the average distance of 20 m
APA, Harvard, Vancouver, ISO, and other styles
31

Chevalier, Jules. "Raisonnement incrémental sur des flux de données." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSES008/document.

Full text
Abstract:
Nous proposons dans cette thèse une architecture pour le raisonnement incrémental sur des flux de triples. Afin de passer à l’échelle, elle est conçue sous la forme de modules indépendants, permettant l’exécution parallèle du raisonnement. Plusieurs instances d’une même règle peuvent être exécutées simultanément afin d’améliorer les performances. Nous avons également concentré nos efforts pour limiter la dispersion des doublons dans le système, problème récurrent du raisonnement. Pour cela, un triplestore partagé permet à chaque module de filtrer au plus tôt les doublons. La structure de notre architecture, organisée en modules indépendants par lesquels transitent les triples, lui permet de recevoir en entrée des flux de triples. Enfin, notre architecture est indépendante du fragment utilisé. Nous présentons trois modes d’inférence pour notre architecture. Le premier consiste à inférer l’ensemble des connaissances implicites le plus rapidement possible. Le second priorise l'inférence de certaines connaissances prédéterminées. Le troisième vise à maximiser la quantité de triples inférés par seconde. Nous avons implémenté l’architecture présentée à travers Slider, un raisonneur incrémental prenant nativement en charge les fragments ρdf et RDFS. Il peut être facilement étendu à des fragments plus complexes. Nos expérimentations ont montré une amélioration des performances de plus de 65% par rapport au raisonneur OWLIM-SE. Nous avons également mené des tests montrant que l’utilisation du raisonnement incrémental avec Slider apporte un avantage systématique aux performances par rapport au raisonnement par lots, quels que soient l’ontologie utilisée et le fragment appliqué<br>In this thesis, we propose an architecture for incremental reasoning on triple streams. To ensure scalability, it is composed of independent modules; thus allowing parallel reasoning. That is, several instances of a same rule can be simultaneously executed to enhance performance. We also focused our efforts to limit the duplicates spreading in the system, a recurrent issue for reasoning. To achieve this, we design a shared triplestore which allows each module to filter duplicates as soon as possible. The triples passes through the different independent modules of the architecture allows the reasoner to receive triple streams as input. Finally, our architecture is of agnostic nature regarding the fragment used for the inference. We also present three inference modes for our architecture: the first one infers all the implicit knowledge as fast as possible; the second mode should be used when the priority has to be defined for the inference of a specific type of knowledge; the third one proposes to maximize the amount of triples inferred per second. We implemented this architecture through Slider, an incremental reasoning natively supporting the fragments ρdf and RDFS: It can easily be extended to more complex fragments. Our experimentations show a 65% improvement over the reasoner OWLIM-SE. However, the recently published reasoner RDFox exhibits better performance, although this one does not provide prioritized inference. We also conducted experimentations showing that the use of incremental reasoning over batch-based reasoning offers systematically better performance for all the ontologies and fragments used
APA, Harvard, Vancouver, ISO, and other styles
32

Bernard, Camille. "Immersing evolving geographic divisions in the semantic Web." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM048.

Full text
Abstract:
De nos jours, le volume de données provenant du secteur public augmente rapidement dans le Web des données ouvertes. La plupart des données proviennent d’organismes gouvernementaux tels que des instituts officiels de statistique et de cartographie. Ensemble, ces institutions publient des statistiques géo-codées qui revêtent une importance capitale pour que les responsables politiques mènent diverses analyses de leur territoire, dans le temps et dans l’espace. Cependant, au cours du temps et partout dans le monde, les divisions (administratives ou électorales par exemple) de ces territoires (portions d’espace sur la terre) délimités par des groupes humains (ou sous le contrôle de groupes humains) sont sujettes à modifications : leur nom, appartenance ou leurs frontières changent pour des raisons politiques ou administratives. De même, les Nomenclatures Statistiques Territoriales (acronyme TSN en anglais), qui regroupent différentes zones géographiques, artefacts construits par des instituts statistiques mais dérivant généralement de structures électorales ou administratives, changent dans le temps et à plusieurs niveaux du territoire (e.g., régions, départements, communes, etc.). Ces changements sont un obstacle à la comparabilité des données socio-économiques dans le temps, celle-ci n’étant possible qu’à la condition d’estimer les données dans un même découpage géographique, un processus compliqué qui finit par masquer les changements territoriaux. Ces changements territoriaux entraînent donc des ruptures dans les séries statistiques et sont à l’origine d’interprétations erronées ou de biais statistiques lorsqu’ils ne sont pas correctement documentés. Par conséquent, des solutions pour représenter différentes versions de TSNs et leurs évolutions dans le Web des Données Ouvertes doivent être proposées afin d’améliorer la compréhension des dynamiques territoriales.Dans cette thèse, nous présentons un cadriciel nommé Theseus Framework. Theseus adopte les technologies du Web sémantique et représente les découpages géographiques et leurs évolutions au cours du temps sous forme de données ouvertes et liées (Linked Open Data (LOD) en anglais). Theseus est composé d’un ensemble de modules permettant la gestion du cycle de vie des TSNs dans le LOD Web : de la modélisation des zones géographiques et de leurs changements au cours du temps, à la détection automatique des changements et à l’exploitation de ces descriptions dans le LOD Web. L’ensemble des modules logiciels reposent sur deux ontologies nommées TSN Ontology et TSN-Change Ontology, que nous avons conçues pour une description non ambiguë des zones géographiques dans le temps et dans l’espace, ainsi que pour la description de leurs modifications au cours du temps.Ce cadriciel s’adresse tout d’abord aux agences statistiques, car il facilite considérablement la mise en conformité de leurs données géographiques, support à l’information statistique avec les directives Open Data. De plus, les graphes de données liées créés améliorent la compréhension des dynamiques territoriales au cours du temps, en fournissant aux décideurs politiques, aux chercheurs et au grand public des descriptions sémantiques des changements territoriaux afin de réaliser diverses analyses de leur territoire. L’applicabilité et la généricité de notre approche sont illustrées par trois tests du cadriciel Theseus menés sur trois TSN officielles : La Nomenclature européenne des unités territoriales statistiques (versions 1999, 2003, 2006 et 2010) de Institut statistique Européen Eurostat; les unités administratives suisses de l’Office fédéral de la statistique Suisse, décrivant les cantons, districts et communes de la Suisse en 2017 et 2018 ; l’Australian Statistical Geography Standard, construit par le Bureau australien de la statistique, composé de sept divisions imbriquées du territoire australien, dans les versions 2011 et 2016<br>Nowadays, the volume of data coming from the public sector is growing rapidly on the Open Data Web. Most of data come from governmental agencies such as Statistical and Mapping Agencies. Together, these public institutions publish geo-coded statistics that are of utmost importance for policy-makers to conduct various analyses upon their jurisdiction, in time and space. However, through times, all over the world, the subdivisions of such ju- risdictions (portions of space on Earth) delimited by or, under the control of human groups (e.g., administrative or electoral areas) are subject to change: their names, belonging or boundaries change for political or administrative reasons. Likewise, the Territorial Statistical Nomenclatures (TSNs) that are sets of artifact areas (although they usually correspond to political or administrative structures) built by Statistical Agencies to observe a territory at several levels (e.g., regions, districts, sub-districts) also change over time. Changes in TSNs are an obstacle to maintain the comparability of socio-economic data over time, unless past data are recalculated according to present geographic areas, a complicated process that, in the end, hide the territorial changes. Then, territorial changes lead to breaks in the statistical series, and are sources of misinterpretations of statistics, or statistical bias when not properly documented. Therefore, solutions for representing different versions of TSNs, and their evolution on the Open Data Web are to be proposed in order to enhance the understanding of territorial dynamics.In this thesis, we present the Theseus Framework with reference to philosophical issue raised by the Ship of Theseus that, according to legend, was rebuilt entirely over the years, every plank of the ship being replaced one by one. This software framework adopts Semantic Web technologies and Linked Open Data (LOD) representation for the description of the TSNs’ areas, and of their changes: this guaranties the syntactic and, moreover, semantic interoperability between systems exchanging TSN information. Theseus is composed of a set of modules to handle the whole TSN data life cycle on the LOD Web: from the modeling of geographic areas and of their changes, to the exploitation of these descriptions on the LOD Web. All the software modules rely on two ontologies, TSN Ontology and TSN-Change Ontology, we have designed for an unambiguous description of the areas in time and space, and for the description of their changes. In order to automate the detection of such changes in TSN geospatial files, Theseus embeds an implementation of the TSN Semantic Matching Algorithm that computes LOD semantic graphs describing all the TSN elements and their evolution, based on the vocabulary of the two ontologies.This framework is intended first for the Statistical Agencies, since it considerably helps in complying with Open Data directives, by automating the publication of Open Data representation of their geographic areas that change over time. Second, the created LOD graphs enhance the understanding of territorial dynamics over time, providing policy-makers, researchers, general public with semantic descriptions of territorial changes to conduct various analyses upon their jurisdiction, in time and space. The applicability and genericity of our approach is illustrated by three tests of Theseus, each of them being led on three official TSNs: The European Nomenclature of Territorial Units for Statistics (NUTS) (versions 1999, 2003, 2006, and 2010) from the European Eurostat Statistical Institute; The Switzerland Administrative Units (SAU), from The Swiss Federal Statistical Office, that describes the cantons, districts and municipalities of Switzerland in 2017 and 2018; The Australian Statistical Geography Standard (ASGS), built by the Australian Bureau of Statistics, composed of seven nested divisions of the Australian territory, in versions 2011 and 2016
APA, Harvard, Vancouver, ISO, and other styles
33

Kaptue, Armel. "Cartographie des écosystèmes et paramètres biophysiques satellitaires pour l'étude des flux hydriques sur le continent africain." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00547510.

Full text
Abstract:
Dans le contexte des changements climatiques, l'objectif du travail effectué est de caractériser l'hétérogénéité du continent africain afin de mieux comprendre et quantifier les processus de surface agissant sur les flux hydriques. Ce travail s'inscrit dans le cadre de la mise à jour de la base de données ECOCLIMAP-I constituée d'une carte d'occupation des sols et des cartes de paramètres biophysiques. Pour cela, on s'appuie sur des données de télédétection acquises par les capteurs de dernière génération MODIS et SPOT/VEGETATION entre 2000 et 2007. Dans un premier temps, deux techniques de classification ont été développées afin de cartographier les différents écosystèmes. L'une, supervisée, a été conduite dans le contexte du programme AMMA afin de discriminer les écosystèmes sur la région ouest-africaine en combinant l'information complémentaire contenue dans les cartes d'occupation du sol GLC2000 et ECOCLIMAP-I par analyse supervisée de l'indice foliaire (LAI) MODIS. L'autre, non supervisée et hybride, utilise les principes de regroupement hiérarchique et dynamique de manière automatique en combinant l'usage du classificateur k-NN et celui de la transformée de Fourier Discrète sur la base des données d'indice de végétation normalisé (NDVI) SPOT/VEGETATION pour identifier les écosystèmes africains. Dans un deuxième temps, des méthodes d'estimation des paramètres biophysiques tels que l'albédo, la fraction de végétation, l'indice foliaire ont été développées et/ou appliquées sur le continent. Une approche statistique permet de déterminer la contribution du sol nu et de la végétation à la constitution de l'albédo de surface comme tel que cela est requis dans les modèles de surface. La méthode a d'abord été appliquée sur la région ouest-africaine et sa robustesse a été prouvée lors de son application à l'intégralité du continent africain. Ces conditions de surface ont ensuite été implémentées dans le modèle de surface ISBA pour reproduire les processus de surface. La sensibilité d'ISBA au forçage physiographique a été étudiée en analysant deux simulations avec le même forçage atmosphérique sur la région ouest-africaine : l'une en utilisant la classification ECOCLIMAP-I et l'autre en utilisant la nouvelle paramétrisation de la surface développée sur la région ouest-africaine. Les flux de chaleur latente et sensible sont principalement pilotés par la fraction de végétation. Le modèle ISBA peut être utilisé pour prédire l'impact d'un changement d'occupation du sol et par conséquent des actions anthropiques sur le bilan hydrique.
APA, Harvard, Vancouver, ISO, and other styles
34

Servant, F. "Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes." Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00844909.

Full text
Abstract:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmen- tée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et car- tographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
35

Servant, Fabien Marchand Éric. "Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes." Rennes : [s.n.], 2009. ftp://ftp.irisa.fr/techreports/theses/2009/servant.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Kaptue, Tchuente Armel. "Cartographie des écosystèmes et paramètres biophysiques satellitaires pour l'étude des flux hydriques sur le continent africain." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/994/.

Full text
Abstract:
Dans le contexte des changements climatiques, l'objectif du travail effectué est de caractériser l'hétérogénéité du continent africain afin de mieux comprendre et quantifier les processus de surface agissant sur les flux hydriques. Ce travail s'inscrit dans le cadre de la mise à jour de la base de données ECOCLIMAP-I constituée d'une carte d'occupation des sols et des cartes de paramètres biophysiques. Pour cela, on s'appuie sur des données de télédétection acquises par les capteurs de dernière génération MODIS et SPOT/VEGETATION entre 2000 et 2007. Dans un premier temps, deux techniques de classification ont été développées afin de cartographier les différents écosystèmes. L'une, supervisée, a été conduite dans le contexte du programme AMMA afin de discriminer les écosystèmes sur la région ouest-africaine en combinant l'information complémentaire contenue dans les cartes d'occupation du sol GLC2000 et ECOCLIMAP-I par analyse supervisée de l'indice foliaire (LAI) MODIS. L'autre, non supervisée et hybride, utilise les principes de regroupement hiérarchique et dynamique de manière automatique en combinant l'usage du classificateur k-NN et celui de la transformée de Fourier Discrète sur la base des données d'indice de végétation normalisé (NDVI) SPOT/VEGETATION pour identifier les écosystèmes africains. Dans un deuxième temps, des méthodes d'estimation des paramètres biophysiques tels que l'albédo, la fraction de végétation, l'indice foliaire ont été développées et/ou appliquées sur le continent. Une approche statistique permet de déterminer la contribution du sol nu et de la végétation à la constitution de l'albédo de surface comme tel que cela est requis dans les modèles de surface. La méthode a d'abord été appliquée sur la région ouest-africaine et sa robustesse a été prouvée lors de son application à l'intégralité du continent africain. Ces conditions de surface ont ensuite été implémentées dans le modèle de surface ISBA pour reproduire les processus de surface. .<br>In the context of climate change, the aim of this study is to characterize the heterogeneity of the African continent in order to provide some elements to better understand and quantify surfaces process acting on hydric fluxes. This work is intented to update the double ECOCLIMAP-I database which is constituted by a land cover map and a dassets of land biophysical parameters. To this end, we use remotely sensed data acquired by the latest generation sensors MODIS and SPOT/VEGETATION between 2000 and 2007. During the first step, two methods of classifications has been developed for the mapping of different ecosystems. The first method, which is supervised, is obtained by combining information provided by the both global land cover map GLC2000 and ECOCLIMAP-I using an interactive analysis of MODIS leaf area index (LAI). It has been performed in the framework of the AMMA project to discriminate ecosystems over the western African Region. The second method is hybrid in that it combines k-NN clustering, hierarchical principles and the Fast Fourier Transform (FFT) on the basis of multi-annual NDVI data from SPOT/VEGETATION to identify ecosystems at the whole African continent. Then, methods for the estimation of land surface biophysical variables such as albedo, fractional vegetation cover and leaf area index has been developed and/or applied over the mainland. A statistical approach allows us to determine the contribution of bare soil albedo and vegetation albedo to the constitution of albedo as required in land surface models. After the application of the latter approach over the western african region, we demonstrate the robustness of the method by applying it over the entire mainland. The sensitivity of two land surface scenarios was studied by analysing two simulations with the same atmospheric forcing over the western African Region:one using the ECOCLIMAP-I classification and another using the new physiographic forcing specifically developed over the western African region. Heat and latent flux are mainly driven by the fractional vegetation coverage. The land surface model ISBA can be used to predict the impact of land cover change and accordingly the anthropic pressure on hydric fluxes
APA, Harvard, Vancouver, ISO, and other styles
37

Servant, Fabien. "Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes." Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/servant.pdf.

Full text
Abstract:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmentée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et cartographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche<br>Our work deals with computer vision. The problem of augmented reality implies a real time estimation of the relive position between camera and scene. This thesis presents a complete method of pose tracking that works with planar structures which are abundant in indoor and outdoor urban environments. The pose tracking is done using a low cost camera and an inertial sensor. Our approach is to use the planes to make the pose estimation easier. Homographies computed by an image tracking algorithm presented in this document are used as measurements for our Simultaneous Localization And Mapping method. This SLAM method permits a long term and robust pose tracking by propagating the measurements uncertainties. Works about selection of regions to track and their corresponding plane parameters initialization are also described in this thesis. Numerical and image based experiments shows the validity of our approach
APA, Harvard, Vancouver, ISO, and other styles
38

Demeure, Olivier. "Cartographie fine et caractérisation d'un QTL localise sur le chromosome 7 porcin et affectant les caractères de croissance et d'engraissement." Rennes, Agrocampus Ouest, 2004. http://www.theses.fr/2004NSARI037.

Full text
Abstract:
Cette étude a porté sur la cartographie fine et la caractérisation d'un QTL affectant la croissance et l'engraissement des porcs. Ces deux caractères ont un intérêt économique important et une meilleure appréhension de leur déterminisme permettra de faire progresser les schémas de sélection. Au début des années 1990, l'INRA a réalisé une primo localisation des QTL affectant les caractères de croissance et d'engraissement chez le porc à l'aide d'un programme de type F2 (Large White x Meishan) appelé PorQTL. Parmi les autosomes, le QTL présentant les effets les plus importants a été localisé sur le chromosome 7, dans la région du SLA. Contrairement aux autres QTL détectés, pour le chromosome 7 c'est la race Meishan (race grasse) qui est associée à de meilleures performances. De plus, les allèles au QTL de cette race présentent une dominance sur les allèles de la race Large White. A l'issue du programme, le QTL était localisé dans un intervalle de 15 cM, sans que l'on sache si un o plusieurs gènes étaient responsables des effets observés, ni même si le QTL était fixé dans la race Meishan. Plusieurs approches ont été utilisées pour tenter de répondre à ces questions : -la première a consisté a caractériser les haplotypes en étudiant les évolutions de fréquence des allèles dans des lignées synthétiques commerciales soumises à une sélection. Cette stratégie a confirmé les résultats précédemment obtenus avec le programme PorQTL et mis en évidence l'existence d'un haplotype spécifique de la race Piétain dont les effets pourraient être supérieurs à ceux associés à la race Meishan<br>The aim of this study was to cartography and characterize a QTL affecting growth and fatness traits in pigs. Those two traits have an important economic interest and better knowledge of their determinism should permit a selection schemes progress. At the beginning of the 1990's the INRA institute realized a primo-localisation of the QTL affecting pig growth and fatness traits based on an F2 programm (Large White x Meishan) caller PorQTL. For the autosomes, the QTL with the most important effects has been localized on the chromosome 7, close to the SLA. Contrary to the other QTL, the SSC7 QTL's best performances are associated with the Meishan breed (fat bree). Moreover, those breed QTL alleles present a dominance over the Large White alleles. Based on this program, the QTL was localized in a 15 cM interval but we did not know if the observed effects were due to one or several genes, nor if there was a fixation of the QTL in the Meishan breed. Different strategies were applied to answer those questions : - the first one has consisted in a characterization of the haplotypes by studying the evolution of the alleles frequency in synthetic lines under selection. This strategy confirmed the previous results obtained with the PorQTL program and revealed a Pietrain specific haplotype which effects might be higher than those associated with the Meishan breed. - the development of a tree generation backcross protocol has permitted to reduce the QTL localisation interval from 15cM to 5. 6 cM
APA, Harvard, Vancouver, ISO, and other styles
39

Le, Béchec Mariannig. "Territoire et communication politique sur le « web régional breton »." Phd thesis, Université Rennes 2, 2010. http://tel.archives-ouvertes.fr/tel-00551746.

Full text
Abstract:
Cette recherche veut explorer les dimensions d'un « web régional breton » à partir de ce que font les acteurs. La construction et l'analyse d'un objet d'investigation (le corpus « web régional breton ») sont associées à un projet de candidature pour un nom de domaine générique sur internet .bzh (signifiant Breizh, littéralement Bretagne). À partir de la notion de territoire, il convenait de dépasser la frontière « physique » pour définir les attributs d'un territoire sur le web. Ainsi, en prenant en compte les liens hypertextes entre les sites web, nous avons établi des cartographies du web en montrant la dynamique des sites web demeurant attachés à un territoire. L'analyse des signes attachés à un territoire et qui circulent sur le web a permis de montrer que le territoire combinait sa dimension spatiale avec une dimension temporelle. Ces signes sont qualifiés ici « transposables ». L'analyse montre un changement des connotations de signes mis en scène sur le web, comme le drapeau ou les langues. Avec le projet de nom de domaine .bzh, l'artefact et son organisme international de régulation, l'Internet Corporation for Assigned Names and Numbers viennent à formaliser la notion de communauté sur le web. L'imagerie bretonne sur le web doit alors se structurer. En associant les dynamiques du web et la temporalité d'un territoire, cette thèse propose une redéfinition des notions de territoire et d'institution, dépassant une gestion de la stabilité pour devenir une gestion de la circulation sur le web
APA, Harvard, Vancouver, ISO, and other styles
40

Crepel, Maxime. "Tagging et folksonomies : pragmatique de l'orientation sur le Web." Phd thesis, Université Rennes 2, 2011. http://tel.archives-ouvertes.fr/tel-00650319.

Full text
Abstract:
Cette recherche propose une analyse des usages des systèmes de tagging sur le Web. Au delà d'un simple outil personnel de " catégorisation ordinaire " des ressources en ligne, les classifications produites à partir de l'indexation libre de tags, nommées folksonomies, permettent aux internautes de produire des " prises " physiques et interprétatives quideviennent un support aux formes de navigation sociale. Ces réseaux de traces numériques permettent aux internautes de se repérer et d'agir dans l'univers complexe et abondant que représente le Web, mais elles sont également un support de coordination avec d'autres internautes. Les tags apparaissent comme des appuis conventionnels qui permettent decoordonner les actions au sein de collectifs à géométrie variable, plus ou moins étendus et identifiés, dont les membres partagent des centres d'intérêts et un vocabulaire commun. A partir d'une approche socio-technique nous étudions le couplage entre conception et usage de ces dispositifs, et montrons que le tagging propose une voie alternative, encore enconstruction, aux politiques existantes d'architecture et d'accessibilité des ressources du Web
APA, Harvard, Vancouver, ISO, and other styles
41

Amrane, Tahar. "Syfweb : un système de filtrage d'informations sur le Web." Lyon 1, 2003. http://www.theses.fr/2003LYO10015.

Full text
Abstract:
Syfweb est un méta moteur de recherche ; il permet d'interroger les moteurs de recherche sur le Web et de récupérer, analyser et trier les résultats selon une formule de pertinence prenant en compte dans son calcul le contenu intégral des documents. Les documents sont partagés en zones classées par ordre d'importance et leur pertinence se trouve augmentée ou diminuée suivant la présence ou l'absence des termes de la requête dans ces documents. A chaque document est attribuée une matrice d'occurrences faisant apparaître les zones clés du document, avec pour chaque zone les occurrences des termes de la requête. Syfweb va au-delà de la recherche sur le Web : il permet, en outre, d'interroger en local les documents à contenu textuel ; ceci permet à son utilisateur d'effectuer des recherches dans un espace à deux dimensions (Internet, Intranet). Dans son traitement ; Syfweb se base sur :1. Le développeur de requête : à partir de la requête posée par l'utilisateur, Syfweb utilise une base terminologique (WordNet ou la Base terminologique du Québec BTQ) pour construire un ensemble de requêtes. L'utilisateur intervient de façon active tant au niveau de la terminologie que dans le choix des requêtes qui seront envoyées au système. 2. L'extracteur des documents : interroge les moteurs de recherches avec l'union des requêtes validées et récupère les documents-réponses, il élimine les doublons, les documents avec des liens vides et ceux ne respectant pas le profil de l'utilisateur (taille minimale des documents, type des documents, domaine des sites). 3. Le classificateur : classe les documents retenus après une analyse statistique de leur contenus. L'affichage de la valeur de pertinence dans Syfweb alerte l'utilisateur sur la mauvaise qualité de la réponse des moteurs et méta moteurs à la question posée. Pour continuer sa recherche, l'utilisateur doit : soit reformuler sa requête avec d'autres termes équivalents, soit interroger d'autres moteurs ou méta moteurs de recherche.
APA, Harvard, Vancouver, ISO, and other styles
42

Cossu, Jean-Valère. "Analyse de l’image de marque sur le Web 2.0." Thesis, Avignon, 2015. http://www.theses.fr/2015AVIG0207/document.

Full text
Abstract:
Image sur le web : analyse de la dynamique des images sur le Web 2.0. En plus d’être un moyen d’accès à la connaissance, Internet est devenu en quelques années un lieu privilégié pour l’apparition et la diffusion d’opinions.Chaque jour, des millions d’individus publient leurs avis sur le Web 2.0 (réseaux sociaux, blogs, etc.). Ces commentaires portent sur des sujets aussi variés que l’actualité, la politique, les résultats sportifs, biens culturels, des objets de consommation, etc. L’amoncellement et l’agglomération de ces avis publiés sur une entité (qu’il s’agisse d’un produit, une entreprise ou une personnalité publique)donnent naissance à l’image de marque de cette entité.L’image d’une entité est ici comprise comme l’idée qu’une personne ou qu’un groupe de personnes se fait de cette entité. Cette idée porte a priori sur un sujet particulier et n’est valable que dans un contexte, à un instant donné.Cette image perçue est par nature différente de celle que l’entité souhaitait initialement diffuser (par exemple via une campagne de communication). De plus,dans la réalité, il existe au final plusieurs images qui cohabitent en parallèle sur le réseau, chacune propre à une communauté et toutes évoluant différemment au fil du temps (imaginons comment serait perçu dans chaque camp le rapprochement de deux hommes politiques de bords opposés). Enfin, en plus des polémiques volontairement provoquées par le comportement de certaines entités en vue d’attirer l’attention sur elles (pensons aux tenues ou déclarations choquantes), il arrive également que la diffusion d’une image dépasse le cadre qui la régissait et même parfois se retourne contre l’entité (par exemple, «le mariage pour tous» devenu « la manif pour tous »). Les opinions exprimées constituent alors autant d’indices permettant de comprendre la logique de construction et d’évolution de ces images. Ce travail d’analyse est jusqu’à présent confié à des spécialistes de l’e-communication qui monnaient leur subjectivité. Ces derniers ne peuvent considérer qu’un volume restreint d’information et ne sont que rarement d’accord entre eux. Dans cette thèse, nous proposons d’utiliser différentes méthodes automatiques, statistiques, supervisées et d’une faible complexité permettant d’analyser et représenter l’image de marque d’entité à partir de contenus textuels les mentionnant. Plus spécifiquement, nous cherchons à identifier les contenus(ainsi que leurs auteurs) qui sont les plus préjudiciables à l’image de marque d’une entité. Nous introduisons un processus d’optimisation automatique de ces méthodes automatiques permettant d’enrichir les données en utilisant un retour de pertinence simulé (sans qu’aucune action de la part de l’entité concernée ne soit nécessaire). Nous comparer également plusieurs approches de contextualisation de messages courts à partir de méthodes de recherche d’information et de résumé automatique. Nous tirons également parti d’algorithmes de modélisation(tels que la Régression des moindres carrés partiels), dans le cadre d’une modélisation conceptuelle de l’image de marque, pour améliorer nos systèmes automatiques de catégorisation de documents textuels. Ces méthodes de modélisation et notamment les représentations des corrélations entre les différents concepts que nous manipulons nous permettent de représenter d’une part, le contexte thématique d’une requête de l’entité et d’autre, le contexte général de son image de marque. Nous expérimentons l’utilisation et la combinaison de différentes sources d’information générales représentant les grands types d’information auxquels nous sommes confrontés sur internet : de long les contenus objectifs rédigés à des informatives, les contenus brefs générés par les utilisateurs visant à partager des opinions. Nous évaluons nos approches en utilisant deux collections de données, la première est celle constituée dans le cadre du projet Imagiweb, la seconde est la collection de référence sur le sujet : CLEFRepLab<br>Analyse of entities representation over the Web 2.0Every day, millions of people publish their views on Web 2.0 (social networks,blogs, etc.). These comments focus on subjects as diverse as news, politics,sports scores, consumer objects, etc. The accumulation and agglomerationof these notices on an entity (be it a product, a company or a public entity) givebirth to the brand image of that entity. Internet has become in recent years aprivileged place for the emergence and dissemination of opinions and puttingWeb 2.0 at the head of observatories of opinions. The latter being a means ofaccessing the knowledge of the opinion of the world population.The image is here understood as the idea that a person or a group of peopleis that entity. This idea carries a priori on a particular subject and is onlyvalid in context for a given time. This perceived image is different from theentity initially wanted to broadcast (eg via a communication campaign). Moreover,in reality, there are several images in the end living together in parallel onthe network, each specific to a community and all evolve differently over time(imagine how would be perceived in each camp together two politicians edgesopposite). Finally, in addition to the controversy caused by the voluntary behaviorof some entities to attract attention (think of the declarations required orshocking). It also happens that the dissemination of an image beyond the frameworkthat governed the and sometimes turns against the entity (for example,« marriage for all » became « the demonstration for all »). The views expressedthen are so many clues to understand the logic of construction and evolution ofthese images. The aim is to be able to know what we are talking about and howwe talk with filigree opportunity to know who is speaking.viiIn this thesis we propose to use several simple supervised statistical automaticmethods to monitor entity’s online reputation based on textual contentsmentioning it. More precisely we look the most important contents and theirsauthors (from a reputation manager point-of-view). We introduce an optimizationprocess allowing us to enrich the data using a simulated relevance feedback(without any human involvement). We also compare content contextualizationmethod using information retrieval and automatic summarization methods.Wealso propose a reflection and a new approach to model online reputation, improveand evaluate reputation monitoring methods using Partial Least SquaresPath Modelling (PLS-PM). In designing the system, we wanted to address localand global context of the reputation. That is to say the features can explain thedecision and the correlation betweens topics and reputation. The goal of ourwork was to propose a different way to combine usual methods and featuresthat may render reputation monitoring systems more accurate than the existingones. We evaluate and compare our systems using state of the art frameworks: Imagiweb and RepLab. The performances of our proposals are comparableto the state of the art. In addition, the fact that we provide reputation modelsmake our methods even more attractive for reputation manager or scientistsfrom various fields
APA, Harvard, Vancouver, ISO, and other styles
43

Crépel, Maxime. "Tagging et folksonomies : pragmatique de l'orientation sur le Web." Thesis, Rennes 2, 2011. http://www.theses.fr/2011REN20038/document.

Full text
Abstract:
Cette recherche propose une analyse des usages des systèmes de tagging sur le Web. Au delà d'un simple outil personnel de « catégorisation ordinaire » des ressources en ligne, les classifications produites à partir de l'indexation libre de tags, nommées folksonomies, permettent aux internautes de produire des « prises » physiques et interprétatives quideviennent un support aux formes de navigation sociale. Ces réseaux de traces numériques permettent aux internautes de se repérer et d'agir dans l'univers complexe et abondant que représente le Web, mais elles sont également un support de coordination avec d'autres internautes. Les tags apparaissent comme des appuis conventionnels qui permettent decoordonner les actions au sein de collectifs à géométrie variable, plus ou moins étendus et identifiés, dont les membres partagent des centres d’intérêts et un vocabulaire commun. A partir d'une approche socio-technique nous étudions le couplage entre conception et usage de ces dispositifs, et montrons que le tagging propose une voie alternative, encore enconstruction, aux politiques existantes d'architecture et d’accessibilité des ressources du Web<br>This research proposes an anlysis of tagging systems uses on the Web. Tagging is not a simple personnal tool of web ressources categorization but classifications emerging from free tags indexation, named folksonomies, allow Internet users to create physical and interpretative supports which produce new forms of social navigation. Those tagging networks give the opportunity to Internet users to navigate and to act in the complex and abundant Web universe, but they are also coordination supports with other Internet users. Tags appear as conventionnal supports which allow coordination of actions in variable-geometry collectives. In those more or less identified and large collectives, members share common vocabulary and interests. Based on a socio-technical approach, we study coupling between conception and uses of tagging systems. We explain that tagging proposes an under construction and alternative way to architecture and accessibility politics of the Web ressources
APA, Harvard, Vancouver, ISO, and other styles
44

Chamchinov, Serguei Mouchard Claude. "Henri Michaux, "Signes", "Gestes", "Mouvements" écriture et peinture /." Saint-Denis : Université de Paris 8, 2007. http://www.bu.univ-paris8.fr/web/collections/theses/chamchinov_serguei.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

López, Pérez Lucero Diana. "Régularisation d'images sur des surfaces non planes." Nice, 2006. http://www.theses.fr/2006NICE4067.

Full text
Abstract:
Nous nous intéressons aux approches par EDP pour la régularisation d'images scalaires et multivaluées définies sur des supports non plans et à leurs applications à des problèmes de traitement des images. Nous étudions la relation entre les méthodes existantes et les comparons en termes de performance et facilité d'implémentation. Nous développons de nouvelles méthodes numériques pour traiter des opérateurs de type divergence utilisés dans les méthodes de régularisation par EDPs sur des surfaces triangulées. Nous généralisons la technique de régularisation du Flot de Beltrami pour le cas des images définies sur des surfaces implicites et explicites. Des implémentations sont proposées pour ces méthodes, et des expériences sont exposées. Nous montrons aussi une application concrète de ces méthodes à un problème de cartographie rétinotopique<br>We are interested in PDE-based approaches for regularization of scalar and vector-valued images defined over non-flat surfaces and their applications for image processing problems. We study the relationship between existing methods and compare them in terms of performance and ease of implementation. We develop new numerical methods to tackle divergence-like operators for regularization of images over triangulated surfaces. We generalize the Beltrami Flow regularization technique to images defined on implicit and explicit surfaces. Implementation schemes for these methods are proposed and validated by experimental results. We also show an application of our work to a concrete retinotopic mapping problem
APA, Harvard, Vancouver, ISO, and other styles
46

Al-Canaan, Amer. "Analyse et amélioration de la qualité de services WEB multimédia et leurs mises en oeuvre sur ordinateur et sur FPGA." Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5973.

Full text
Abstract:
Résumé : Les services Web, issus de l’avancée technologique dans le domaine des réseaux informatiques et des dispositifs de télécommunications portables et fixes, occupent une place primordiale dans la vie quotidienne des gens. La demande croissante sur des services Web multimédia (SWM), en particulier, augmente la charge sur les réseaux d’Internet, les fournisseurs de services et les serveurs Web. Cette charge est essentiellement due au fait que les SWM de haute qualité nécessitent des débits de transfert et des tailles de paquets importants. La qualité de service (par définition, telle que vue par l’utilisateur) est influencée par plusieurs facteurs de performance, comme le temps de traitement, le délai de propagation, le temps de réponse, la résolution d’images et l’efficacité de compression. Le travail décrit dans cette thèse est motivé par la demande continuellement croissante de nouveaux SWM et le besoin de maintenir et d’améliorer la qualité de ces services. Nous nous intéressons tout d’abord à la qualité de services (QdS) des SWM lorsqu’ils sont mis en œuvre sur des ordinateurs, tels que les ordinateurs de bureau ou les portables. Nous commençons par étudier les aspects de compatibilité afin d’obtenir des SWM fonctionnant de manière satisfaisante sur différentes plate-formes. Nous étudions ensuite la QdS des SWM lorsqu’ils sont mis en œuvre selon deux approches différentes, soit le protocole SOAP et le style RESTful. Nous étudions plus particulièrement le taux de compression qui est un des facteurs influençant la QdS. Après avoir considéré sous différents angles les SWM avec mise en œuvre sur des ordinateurs, nous nous intéressons à la QdS des SWM lorsqu’ils sont mis en œuvre sur FPGA. Nous effectuons alors une étude et une mise en œuvre qui permet d’identifier les avantages à mettre en œuvre des SWM sur FPGA. Les contributions se définissent en cinq volets comme suit : 1. Nous introduisons des méthodes de création, c’est-à-dire conception et mise en œuvre, de SWM sur des plate-formes logicielles hétérogènes dans différents environnements tels que Windows, OS X et Solaris. Un objectif que nous visons est de proposer une approche permettant d’ajouter de nouveaux SWM tout en garantissant la compatibilité entre les plate-formes, dans le sens où nous identifions les options nous permettant d’offrir un ensemble riche et varié de SWM pouvant fonctionner sur les différentes plate-formes. 2. Nous identifions une liste de paramètres pertinents influençant la QdS des SWM mis en œuvre selon le protocole SOAP et selon le style REST. 3. Nous développons un environnement d’analyse pour quantifier les impacts de chaque paramètre identifié sur la QdS de SWM. Pour cela, nous considérons les SWM mis en œuvre selon le protocole SOAP et aussi selon style REST. Les QdS obtenues avec SOAP et REST sont comparées objectivement. Pour faciliter la comparaison, la même gamme d’images (dans l’analyse de SWM SOAP) a été réutilisée et les mêmes plate-formes logicielles. 4. Nous développons une procédure d’analyse qui permet de déterminer une corrélation entre la dimension d’une image et le taux de compression adéquat. Les résultats obtenus confirment cette contribution propre à cette thèse qui confirme que le taux de compression peut être optimisé lorsque les dimensions de l’image ont la propriété suivante : le rapport entre la longueur et la largeur est égal au nombre d’or connu dans la nature. Trois libraires ont été utilisées à savoir JPEG, JPEG2000 et DjVu. 5. Dans un volet complémentaire aux quatre volets précédents, qui concernent les SWM sur ordinateurs, nous étudions ainsi la conception et la mise en œuvre de SWM sur FPGA. Nous justifions l’option de FPGA en identifiant ses avantages par rapport à deux autres options : ordinateurs et ASICs. Afin de confirmer plusieurs avantages identifiés, un SWM de QdS élevée et de haute performance est créé sur FPGA, en utilisant des outils de conception gratuits, du code ouvert (open-source) et une méthode fondée uniquement sur HDL. Notre approche facilitera l’ajout d’autres modules de gestions et d’orchestration de SWM. 6. La mise à jour et l’adaptation du code open-source et de la documentation du module Ethernet IP Core pour la communication entre le FPGA et le port Ethernet sur la carte Nexys3. Ceci a pour effet de faciliter la mise en œuvre de SWM sur la carte Nexys3. // Abstract : Web services, which are the outcome of the technological advancements in IT networks and hand-held mobile devices for telecommunications, occupy an important role in our daily life. The increasing demand on multimedia Web services (MWS), in particular, augments the load on the Internet, on service providers and Web servers. This load is mainly due to the fact that the high-quality multimedia Web services necessitate high data transfer rates and considerable payload sizes. The quality of service (QoS, by definition as it is perceived by the user) is influenced by several factors, such as processing time, propagation delay, response time, image resolution and compression efficacy. The research work in this thesis is motivated by the persistent demand on new MWS, and the need to maintain and improve the QoS. Firstly, we focus on the QoS of MWS when they are implemented on desktop and laptop computers. We start with studying the compatibility aspects in order to obtain MWS functioning satisfactorily on different platforms. Secondly, we study the QoS for MWS implemented according to the SOAP protocol and the RESTful style. In particular, we study the compression rate, which is one of the pertinent factors influencing the QoS. Thirdly, after the study of MWS when implemented on computers, we proceed with the study of QoS of MWS when implemented on hardware, in particular on FPGAs. We achieved thus comprehensive study and implementations that show and compare the advantages of MWS on FPGAs. The contributions of this thesis can be resumed as follows: 1. We introduce methods of design and implementation of MWS on heterogeneous platforms, such as Windows, OS X and Solaris. One of our objectives is to propose an approach that facilitates the integration of new MWS while assuring the compatibility amongst involved platforms. This means that we identify the options that enable offering a set of rich and various MWS that can run on different platforms. 2. We determine a list of relevant parameters that influence the QoS of MWS. 3. We build an analysis environment that quantifies the impact of each parameter on the QoS of MWS implemented on both SOAP protocol and RESTful style. Both QoS for SOAP and REST are objectively compared. The analysis has been held on a large scale of different images, which produces a realistic point of view describing the behaviour of real MWS. 4. We develop an analysis procedure to determine the correlation between the aspect ratio of an image and its compression ratio. Our results confirm that the compression ratio can be improved and optimised when the aspect ratio of iiiiv an image is close to the golden ratio, which exists in nature. Three libraries of compression schemes have been used, namely: JPEG, JPEG2000 and DjVu. 5. Complementary to the four contributions mentioned above, which concern the MWS on computers, we study also the design and implementation of MWS on FPGA. This is justified by the numerous advantages that are offered by FPGAs, compared to the other technologies such as computers and ASICs. In order to highlight the advantages of implementing MWS on FPGA, we developed on FPGA a MWS of high performance and high level of QoS. To achieve our goal, we utilised freely available design utilities, open-source code and a method based only on HDL. This approach is adequate for future extensions and add-on modules for MWS orchestration.
APA, Harvard, Vancouver, ISO, and other styles
47

Vuillod, Patricia. "Paysage visible et aménagement : modélisations cartographiques et test sur le Haut-Jura." Besançon, 1994. http://www.theses.fr/1994BESA1016.

Full text
Abstract:
Le paysage est ici saisi dans son aspect visible. Il est modélisé à partir de données numériques en deux dimensions (modèle numérique de terrain, classification d'une image satellite). Cette modélisation, fondée sur des applications informatiques spécifiques, permet de restituer au paysage son caractère tridimensionnel (profondeur de champ, degré d'ouverture verticale et horizontale de l'angle de vision). La méthode se fonde sur la mise en relation de couches d'informations variées par des techniques statistiques de regroupements typologiques pour aboutir à une information synthétisée. Dans un premier temps est constitué un inventaire exhaustif des différents types de paysages visibles dans le haut-jura. Cet inventaire cartographique aboutit à la réalisation d'un guide qui montre les différents types de vues pouvant être obtenus depuis tout point de l'espace : ces vues sont différenciées par une profondeur de champ variable, par des volumes topographiques, une couverture végétale et des établissements humains divers. Ces composants définissent des couleurs, des formes et des textures qui sont particulières à chaque type d'image paysagère délivrée. Dans un second temps sont explorées les relations complexes que l'homme entretient avec les paysages. L'étude de leur valorisation, de leur attractivité permet d'aboutir à une évaluation du potentiel attractif et de la sensibilité des paysages dans le Haut-Jura. La méthode, aisément reproductible, permet d'explorer quelques cas concrets d'application à la gestion des paysages.
APA, Harvard, Vancouver, ISO, and other styles
48

Rioux, Jean-François. "Effet de la résolution spatiale des données de couverture terrestre sur la cartographie des services écologiques urbains." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/33306.

Full text
Abstract:
La cartographie des services écologiques (SE) urbains suscite un intérêt grandissant. Toutefois, les différentes méthodes et sources de données utilisées peuvent produire des résultats divergents. En particulier, il demeure difficile d’estimer l’effet de la résolution spatiale des données de couverture terrestre (CT) sur la cartographie des flux de SE des espaces verts aux personnes qui en bénéficient. Cette étude visait à caractériser cet effet afin d’aider à en prédire l’ampleur pour des flux de SE produits à différentes échelles spatiales. Une carte de CT à haute résolution spatiale (1 m) couvrant le territoire de la ville de Laval (Canada) a été acquise, puis agrégée à des résolutions inférieures de 3, 5, 10 et 15 m. À partir de ces données, trois SE ont été cartographiés : le stockage de carbone (flux à l’échelle globale), la régulation de la température et la pollinisation (flux à l’échelle locale). Les résultats ont été analysés pour différents types d’utilisation du sol. De manière générale, la diminution de la résolution a entraîné une diminution de la proportion d’espaces verts dans la carte de CT, et par conséquent une diminution de la quantité de SE calculée. Pour les flux de SE à l’échelle locale, l’effet dépendait également des changements dans la configuration spatiale de l’apport potentiel par rapport à la demande en SE. L’ampleur de l’effet variait en fonction du type d’utilisation du sol, mais également entre les zones d’analyse du même type, alors qu’il était sensible à la structure du paysage. Ces résultats invitent à considérer l’effet de la résolution spatiale lors de la cartographie des SE urbains, en particulier pour les flux de SE à l’échelle locale. L’utilisation de données à haute résolution spatiale est recommandée pour cartographier adéquatement les SE rendus par les petits espaces verts dispersés au sein du tissu urbain.<br>Urban ecosystem services (ES) mapping is attracting a growing interest. However, the diversity of methods and data used can produce divergent results. In particular, estimating the effect of land cover (LC) data spatial resolution on mapping spatial flows of ES from greenspaces to beneficiaries remains a challenge. This study aimed to characterize this effect, in order to improve our ability to predict its magnitude for ES flows produced at different spatial scales. A high spatial resolution (1 m) LC map covering the territory of the city of Laval was acquired, and then aggregated to coarser resolutions of 3, 5, 10 and 15 m. Using these LC maps as input data, three ES were mapped: carbon storage (a global-flow ES), cooling and pollination (two local-flow ES). Results were analyzed for different land use types. Greenspaces cover was generally underestimated at a coarser spatial resolution, leading to an underestimation of calculated ES quantity. For local-flow ES, the effect of LC resolution also depended on changes in the spatial configuration of ES potential supply relative to ES demand. The magnitude of the effect varied between the different land use types, but also between different zones of analysis corresponding to the same land use type, as the effect was sensitive to the local landscape structure. These results demonstrate the importance of considering the effect of LC data spatial resolution when mapping urban ES, especially for local-flow ES. Using high spatial resolution LC data is recommended to adequately map the ES provided by the small greenspaces scattered through the urban fabric.
APA, Harvard, Vancouver, ISO, and other styles
49

Matte, Olivier. "Cartographie des forêts à haute valeur de stockage de carbone par apprentissage profond sur l’île de Bornéo." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66791.

Full text
Abstract:
Les forêts d'Asie du Sud-Est subissent de fortes pressions en raison de vastes activités d'utilisation des terres, notamment des plantations de palmiers à huile. Le désir de protéger et de gérer les habitats à fort potentiel de stockage de carbone a accru le besoin de préserver les écosystèmes uniques des forêts locales. Pour préserver les écosystèmes forestiers tropicaux de l'expansion agricole, une méthodologie de classification des forêts à fort potentiel de stockage de carbone, connue sous le nom d'Approche à Stock de Haut Carbone (HCSA) a été développée. Notre objectif de recherche est d'évaluer l'efficacité de l'utilisation combinée du LiDAR aéroporté et de l'apprentissage en profondeur pour la classification HCSA sur l'île de Bornéo. Pour ce faire, nous examinerons la biomasse aérienne à l'aide de l'équation développée par Asner (2018) et Jucker (2017), établie sur le territoire de Sabah, ainsi que des métriques LiDAR telles que la hauteur de la canopée, la couverture de la canopée et le la surface terrière forestière. Les métriques de la structure forestière dérivé du LiDAR seront également utilisées pour essayer de différencier les classes HCSA. La zone d'intérêt pour cette étude couvre une partie du territoire du Kalimantan (partie indonésienne de Bornéo).Puis, l’entrainement d'un algorithme d’apprentissage profond permettra, par l'utilisation d'images satellites (Landsat 7 et Landsat 8), de faire un saut spatial et temporel, afin d'établir une cartographie des forêts à surveiller en 2019 et sur l'ensemble de l'île de Bornéo.<br>Forests in Southeast Asia are under heavy pressure from extensive land-use activities, including oil palm plantations. The desire to protect and manage habitats with high carbon storage potential has increased the need for preserving the unique ecosystems of local forests. To preserve tropical forest ecosystems from agricultural expansion, a methodology for classifying forests with high carbon storage potential, known as the High Carbon Stock Approach (HCSA) was developed. Our research goal is to assess the effectiveness of the combined use of airborne LiDAR and deep learning for HCSA classification across the island of Borneo. To do this, we will examine the above-ground biomass using the equation developed by Asner (2018) and Jucker (2017), established in the Sabah territory, as well as LiDAR metrics such as canopy height, canopy cover, and the forest basal area. LiDAR metrics of forest structure will also be used to try to differentiate HCS classes. LiDAR data and field surveys were collected from the Jet Propulsion Laboratory (JPL -NASA). The area of interest for this study covers part of the Kalimantan territory (Indonesian part of Borneo). The data collected has been part of the ongoing Carbon Monitoring System (CMS) project. Then, the training of a deep learning algorithm will allow, by the use of satellite images (Landsat 7 and Landsat 8), to make a spatial and temporal jump, in order to establish a cartography of the forests to be monitored in 2019 and on the entirety of Borneo Island.
APA, Harvard, Vancouver, ISO, and other styles
50

Valentin, Jérémie. "Usages géographiques du cyberespace : nouvelle appropriation de l'espace et l'essor d'une "néogéographie"." Thesis, Montpellier 3, 2010. http://www.theses.fr/2010MON30049.

Full text
Abstract:
Cette recherche propose d’analyser les impacts et les enjeux géographiques d’un cyberespace omni présent. Sous l’impulsion du web 2.0 et celle des globes virtuels (Google Earth, Virtual Earth, World Wind), la production et la diffusion du savoir géographique subissent d’amples transformations. Les espaces virtuels et autres services de géolocalisation (LBS) remplacent peu à peu la carte papier et le guide touristique. Ces usages participent à l’émergence d’un espace complexe où viennent se mêler des usages dans l’espace réel et des usages dans l’espace virtuel. Parallèlement, une production d’intérêt géographique en résulte, hors des milieux qui, jusqu’à ces dernières années, en étaient les initiateurs et les utilisateurs obligés : universités, organismes de recherche, géographes professionnels, Etats, ONG, militaires … Cette thèse éclairera donc le lecteur sur la réalité géographique des (nouveaux) usages du cyberespace, qu’ils soient liés à la production « amateur » de contenus géographiques (néogéographie) ou à la consommation « augmentée » de l’espace géographique<br>This research proposes to analyze the impacts and challenges of an omnipresent geographical cyberspace. Spurred on by web 2.0 and that of virtual globes (Google Earth, Virtual Earth, World Wind), the production and diffusion of geographical knowledge undergo further transformations. Virtual spaces and other location-based services (LBS) are gradually replacing the paper map and tourist guide. These uses contribute to the emergence of a complex space where uses in real space and uses in the virtual space mingle. Meanwhile, production of geographical interest results outside areas which, until recently, were the initiators and traditional users: universities, research organizations, professional geographers, states, NGOs, military ... This thesis will enlighten the reader on the geographical reality of the (new) uses of cyberspace, whether related to the production of "amateur" geographical content (neogeography) or to consumption "augmented" of geographical space
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography