To see the other types of publications on this topic, follow the link: Désagrégation des données météorologiques.

Dissertations / Theses on the topic 'Désagrégation des données météorologiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 46 dissertations / theses for your research on the topic 'Désagrégation des données météorologiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mechri, Rihab. "Désagrégation spatiale de températures Météosat par une méthode d'assimilation de données (lisseur particulaire) dans un modèle de surface continentale." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0036/document.

Full text
Abstract:
La température des surfaces continentales (LST) est une variable météorologiquetrès importante car elle permet l’accès aux bilans d’énergie et d’eau ducontinuum Biosphère-Atmosphère. Sa haute variabilité spatio-temporelle nécessite desmesures à haute résolution spatiale (HRS) et temporelle (HRT) pour suivre au mieuxles états hydriques du sol et des végétations.La télédétection infrarouge thermique (IRT) permet d’estimer la LST à différentesrésolutions spatio-temporelles. Toutefois, les mesures les plus fréquentes sont souventà basse résolution spatiale (BRS). Il faut donc développer des méthodes pour estimerla LST à HRS à partir des mesures IRT à BRS/HRT. Cette solution est connue sous lenom de désagrégation et fait l’objet de cette thèse.Ainsi, une nouvelle approche de désagrégation basée sur l’assimilation de données(AD) est proposée. Il s’agit de contraindre la dynamique des LSTs HRS/HRT simuléespar un modèle en minimisant l’écart entre les LST agrégées et les données IRT àBRS/HRT, sous l’hypothèse d’homogénéité de la LST par type d’occupation des sols àl’échelle du pixel BRS. La méthode d’AD choisie est un lisseur particulaire qui a étéimplémenté dans le modèle de surface SETHYS (Suivi de l’Etat Hydrique du Sol).L’approche a été évaluée dans une première étape sur des données synthétiques etvalidée ensuite sur des données réelles de télédétection sur une petite région au Sud-Est de la France. Des séries de températures Météosat à 5 km de résolution spatialeont été désagrégées à 90m et validées sur une journée à l’aide de données ASTER.Les résultats encourageants nous ont conduit à élargir la région d’étude et la périoded’assimilation à sept mois. La désagrégation des produits Météosat a été validée quantitativementà 1km à l’aide de données MODIS et qualitativement à 30m à l’aide dedonnées Landsat7. Les résultats montrent de bonnes performances avec des erreursinférieures à 2.5K sur les températures désagrégées à 1km<br>Land surface temperature (LST) is one of the most important meteorologicalvariables giving access to water and energy budgets governing the Biosphere-Atmosphere continuum. To better monitor vegetation and energy states, we need hightemporal and spatial resolution measures of LST because its high variability in spaceand time.Despite the growing availability of Thermal Infra-Red (TIR) remote sensing LSTproducts, at different spatial and temporal resolutions, both high spatial resolution(HSR) and high temporal resolution (HTR) TIR data is still not possible because ofsatellite resolutions trade-off : the most frequent LST products being low spatial resolution(LSR) ones.It is therefore necessary to develop methods to estimate HSR/HTR LST from availableTIR LSR/HTR ones. This solution is known as "downscaling" and the presentthesis proposes a new approach for downscaling LST based on Data Assimilation (DA)methods. The basic idea is to constrain HSR/HTR LST dynamics, simulated by a dynamicalmodel, through the minimization of their respective aggregated LSTs discrepancytoward LSR observations, assuming that LST is homogeneous at the land cover typescale inside the LSR pixel.Our method uses a particle smoother DA method implemented in a land surfacemodel : SETHYS model (Suivie de l’Etat Hydrique de Sol). The proposed approach hasbeen firstly evaluated in a synthetic framework then validated using actual TIR LSTover a small area in South-East of France. Meteosat LST time series were downscaledfrom 5km to 90m and validated with ASTER HSR LST over one day. The encouragingresults conducted us to expand the study area and consider a larger assimilation periodof seven months. The downscaled Meteosat LSTs were quantitatively validated at1km of spatial resolution (SR) with MODIS data and qualitatively at 30m of SR withLandsat7 data. The results demonstrated good performances with downscaling errorsless than 2.5K at MODIS scale (1km of SR)
APA, Harvard, Vancouver, ISO, and other styles
2

Engida, Agizew Nigussie. "Modélisation Hydrosédimentaire dans le Bassin Versant du Lac Tana en Ethiopie." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00539152.

Full text
Abstract:
Cette étude a été menée dans le bassin versant du lac Tana situé dans le haut bassin du Nil Bleu en Ethiopie, où les enjeux liés à l'exploitation des ressources en eau sont critiques et la disponibilité de données pertinentes est faible. L'étude est divisée en trois parties principales qui comprennent l'évaluation de la qualité et l'analyse des données existantes, l'évaluation de l'applicabilité d'un modèle hydrologique à base physique et le calcul des bilans en eau et des matières en suspension du lac Tana. Les couvertures spatiales et temporelles des variables hydro-météorologiques ont été évaluées à partir des méthodes recommandées dans la littérature. L'analyse des jeux de données hydro-météorologiques comprend le contrôle de la qualité des données, et la détermination de leurs caractéristiques spatiales et temporelles. L'applicabilité du modèle hydrologique à base physique a été évaluée sur deux bassins versants. Cet exercice de modélisation a montré l'intérêt des méthodes de désagrégation temporelle pour générer des données météorologiques à des échelles de temps plus courtes. Compte tenu de la qualité des données utilisées, la performance du modèle dans deux des bassins versants a été jugée satisfaisante. Le bilan en eau du lac Tana a été calculé au pas temps mensuel ce qui a impliqué l'estimation des différents termes. Un modèle dynamique et conceptuel a été utilisé pour estimer les contributions des bassins versants pour lesquels les données hydrométriques sont manquantes. Les résultats du calcul sont généralement bons et les niveaux observés du lac sont reproduits de manière satisfaisante. L'estimation du bilan des matières en suspension pour le lac a nécessité le développement et l'utilisation des courbes débit-concentration et un modèle régional. Les résultats présentés dans ce travail sont utiles pour la planification et la gestion des ressources en eau dans cette région d'Ethiopie.
APA, Harvard, Vancouver, ISO, and other styles
3

Randriamanantena, Herimino Paoly. "Utilisation de données satellitaires dans les modèles météorologiques." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT030H.

Full text
Abstract:
Les observations satellitaires fournissent aux modeles meteorologiques des parametres faciles a manipuler, disponibles a differentes resolutions spatio-temporelles. Les proprietes radiatives spectrales du couvert vegetal observees par satellite sont prises comme criteres pour remettre a jour la reconnaissance des differentes formes de vegetation a la surface du globe. Une amelioration des parametrisations des processus de surface, faisant intervenir la vegetation, et introduisant des parametres satellitaires, apparait faisable et necessaire
APA, Harvard, Vancouver, ISO, and other styles
4

Pivano, Cyril. "Désagrégation spatiale des données de mobilité du recensement de la population appliquée à l'Ile-de-France." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1185/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Aldanondo, Michel. "Modélisation des données pour la planification et l'ordonnancement de la production : mécanismes d'agrégation et de désagrégation." Toulouse, INSA, 1992. http://www.theses.fr/1992ISAT0012.

Full text
Abstract:
Ce travail porte sur la modélisation des données dans les systèmes de production manufacturière dans lesquels le système de décision est considéré comme un ensemble de centres de décisions hiérarchisés. Ce problème de modélisation se rencontre lors de l'analyse du système de gestion des entreprises industrielles. Le système de décision étant décomposé en niveaux, ce travail propose une modélisation des données correspondant à cette décomposition. Un modèle générique de données du niveau le plus détaillé est défini; des règles garantissant la cohérence des informations sont élaborées. Ce modèle de base et les règles de cohérence sont utilisés pour l'étude des interactions entre des modèles de données associés à des niveaux de décision successifs d'une structure hiérarchisée. Les données structurelles sont agrégées et les données décisionnelles désagrégées. La cohérence horizontale des données de chaque niveau et la cohérence verticale des données des niveaux successifs sont analysées
APA, Harvard, Vancouver, ISO, and other styles
6

Benkiran, Mounir. "Assimilation de données altimétriques dans un modèle de circulation de la Méditerranée aux équations primitives." Toulouse 3, 1997. http://www.theses.fr/1997TOU30023.

Full text
Abstract:
Imbriquee entre l'europe, l'asie et l'afrique, la mediterranee a ete pendant des milliers d'annees le berceau de la civilisation. De nos jours, c'est encore l'une des mers les plus frequentees du monde. L'etude oceanographique de la mediterranee est tres interessante a cause de l'activite importante de sa circulation thermohaline et de la presence de plusieurs zones de formation d'eau profonde. Depuis quelques annees, de nombreux travaux ont ete effectues pour mieux comprendre la circulation dans les differents bassins de la mediterranee. Pourtant, on ne dispose que de tres peu de donnees in-situ sur l'ensemble de cette mer. L'arrivee de donnees satellitaires a permis de combler en partie ce manque et d'obtenir une couverture dense et complete de mesures. Ce travail a pour but d'assimiler des donnees altimetriques sur l'ensemble de la mediterranee dans un modele aux equations primitives au 1/4. Dans un premier temps, on a ete amene a faire une simulation climatologique de 10 ans afin d'obtenir un etat initial stable pour les simulations suivantes. Dans un deuxieme temps, on a utilise des forcages atmospheriques realistes a haute frequence cepmmt (centre europeen de previsions meteorologiques a moyen terme) pour une simulation sur deux ans (1992-93). Ensuite, on a compare les sorties du modele avec des donnees altimetriques topex-poseidon. Enfin, on a assimile ces donnees sur l'annee 1993 dans le modele en utilisant la methode statistique des modes empiriques verticaux. Cette methode a ete utilisee par dombrowsky et de mey (1992) dans l'atlantique nord-est en utilisant un modele quasi-geostrophique. Ces modes ont ete calcules a partir des sorties du modele, sur l'annee 93, force avec les donnees cepmmt. Les resultats d'assimilation montrent une certaine habilete du modele au 1/4 a reproduire la circulation et a la predire sur 7-14 jours. Un certain nombre d'etude de sensibilite ont ensuite ete menees: influence d'ers-1 sur l'assimilation, choix des parametres statistiques, localisation des modes empiriques, fonctionnement en mode lisseur, choix des forcages et influence des biais en particulier
APA, Harvard, Vancouver, ISO, and other styles
7

Cailloux, Olivier. "Elicitation indirecte de modèles de tri multicritère." Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00773683.

Full text
Abstract:
Le champ de l'Aide Multicritère à la Décision (AMCD) propose des manières de modéliser formellement les préférences d'un décideur de façon à lui apporter des éclaircissements. Le champ s'intéresse aux problèmes impliquant une décision et faisant intervenir plusieurs points de vue pour évaluer les options (ou alternatives) disponibles. Ce travail vise principalement à proposer des méthodes d'élicitation, donc des façons de questionner un décideur ou un groupe de décideurs pour obtenir un ou plusieurs modèles de préférence. Ces méthodes utilisent des techniques dites de désagrégation consistant à prendre des exemples de décision pour base de la modélisation. Dans le contexte étudié, les modèles de préférence sont des modèles de tri : ils déterminent une façon d'affecter des alternatives à des catégories ordonnées par préférence. Nous nous intéressons à la classe de modèles de tri MR Sort. Nous présentons une méthode permettant de faire converger un groupe de décideurs vers un modèle de tri unique. Elle s'appuie sur des programmes mathématiques. Nous analysons également en détail les difficultés liées aux imprécisions numériques posées par l'implémentation de ces programmes. Nous proposons aussi un algorithme permettant de comparer deux modèles MR Sort. Nous introduisons une manière novatrice d'interroger le décideur d'une façon qui permet de prendre en compte ses hésitations, via l'expression de degrés de crédibilités, lorsqu'il fournit des exemples d'affectation. Les résultats de la méthode permettent au décideur de visualiser les compromis possibles entre la crédibilité et la précision des conclusions obtenues. Nous proposons une méthode de choix de portefeuille. Elle intègre des préoccupations d'évaluation absolue, afin de s'assurer de la qualité intrinsèque des alternatives sélectionnées, et des préoccupations portant sur l'équilibre du portefeuille résultant. Nous expliquons également en quoi cette méthode peut constituer une alternative à la discrimination positive. Nous décrivons les composants logiciels réutilisables que nous avons soumis à une plateforme de services web, ainsi que les fonctionnalités développées dans une bibliothèque qui implémente les méthodes proposées dans ce travail. Un schéma de données existe visant à standardiser l'encodage de données de méthodes d'AMCD en vue de faciliter la communication entre composants logiciels. Nous proposons une nouvelle approche visant à résoudre un certain nombre d'inconvénients de l'approche actuelle. Nous développons en guise de perspective une proposition visant à inscrire la modélisation des préférences dans une épistémologie de type réaliste.
APA, Harvard, Vancouver, ISO, and other styles
8

Coppens, Dorothée. "Etude de l'estimation des profils de taux précipitants restitués à partir des bases de données micro-ondes passives (TRMM) : effet de la distribution des tailles de gouttes." Palaiseau, Ecole polytechnique, 2000. http://www.theses.fr/2000EPXX0046.

Full text
Abstract:
Dans le cadre de la mission TRMM, qui signifie tropical rainfall measuring mission, dont le satellite a été lancé en novembre 1997, on s'est intéressée a l'étude de l'estimation des taux précipitants a partir de ces mesures micro-ondes passives. A bord de ce satellite, le radiomètre micro-ondes multifréquences tmi (trmm microwave imager) mesure le rayonnement terrestre et atmosphérique a cinq fréquences dont quatre sont doublement polarisées. Le but de cette thèse est d'étudier la restitution des profils de taux précipitants (pluie) a partir des températures de brillance que ce radiomètre fournit. Parce que la relation qui lie la pluie aux températures de brillance est fortement non-linéaire et difficilement inversible, la grande majorité des algorithmes de restitution utilisent une base de données construite au préalable a l'aide de modèles de nuages. Connaitre l'incertitude intrinsèques des taux précipitants permet de connaitre les limites de ces estimations, ce qui permet de connaitre précisément la manière de moyenner ces taux précipitants, sur combien de jours et sur quelle surface, de façon a obtenir une bonne précision des estimations sans gâcher de l'information. Ces incertitudes permettent également de savoir comment les combiner correctement plusieurs autres paramètres physiques. Nous avons montré qu'en utilisant la base de données TRMM, l'incertitude intrinsèque que cette démarche de restitution entraine, est de 55% minimum sur les taux précipitants estimes, allant jusqu'a plus de 100% pour les faibles pluies. De plus, nous avons également montre que la distribution de la taille des gouttes avait un effet important sur les températures de brillance, et que, en particulier, la distribution de Marshall-palmer qui la distribution la plus couramment utilisée, qui a donc été utilisée pour construire la base de données TRMM, entrainait une forte sous-estimation des taux précipitants. Nous avons également montré que la distribution des températures de brillance de la base de données TRMM n'était pas tout-a-fait représentative de ce qui pouvait être observe par le radiomètre tmi. C'est pourquoi nous avons développé une méthode de comparaison qui nous a permis, en particulier, d'indiquer les profils manquants dans la base de données TRMM. Pour finir, nous avons développé un algorithme de restitution des taux précipitants qui utilise des combinaisons linéaires de températures de brillance. Ceci nous a permis également de faire une comparaison entre les différentes combinaisons trouvées dans le but d'étudier la priorité des canaux micro-ondes passives pour la restitution de la pluie.
APA, Harvard, Vancouver, ISO, and other styles
9

Chaix, Christophe. "Climatologie hivernale des versants alpins (Savoie) : types de temps, température et vents : analyse des données météorologiques des domaines skiables." Chambéry, 2007. http://www.theses.fr/2007CHAML028.

Full text
Abstract:
En zone montagneuse, la variabilité des paramètres climatiques, notamment à l'échelle fine, reste mal connue. En effet, les conditions climatiques difficiles rencontrées dans la montagne hivernale ont toujours empêché une instrumentation systématique de la mesure des températures, de l'humidité relative ou encore du vent. Mais depuis l'avènement de la production de neige de culture dans les stations de sport d'hiver, on peut se servir des données météorologiques utilisées dans la gestion des canons à neige pour suivre le comportement de ces paramètres climatiques, grâce à un réseau très dense de sondes et d'anémomètres. Cette thèse vise à exploiter les données obtenues grâce aux potentialités de ce nouveau réseau de mesure au travers des sites d'étude choisis, dans les Alpes françaises en Savoie (Les Menuires, Val Thorens, Aussois et Valloire). Une analyse exploratoire et statistique des données permet de répondre en partie aux problématiques récurrentes de la climatologie hivernale de montagne, concernant notamment l'influence des échelles climatiques supérieures et du relief sur la variabilité spatio-temporelle des températures et du vent à échelles finies. Fondée au préalable sur une classification des types de temps en Savoie, l'étude porte principalement sur le comportement moyen ou horaire des températures et leurs inversions, les gradients thermiques et le rôle des facteurs topographiques et des échelles climatiques sur la variation des paramètres locaux. Un nouveau modèle de l'évolution des brises thermiques hivernales est proposé, avec la découverte de mécanismes encore non identifiés sur les brises catabatiques diurnes. Enfin, nous proposerons des applications concrètes pour la gestion des domaines skiables et de la neige de culture<br>In mountainous area, the variability of the climatic parameters are still not well known at small scale. Indeed, the systematic measurements of temperature, humidity and wind's parameters are often restricted because of difficult climatic conditions, specially in winter. But since the production of artificial snow in the winters sports resorts began, it becam possible to use the information of the very dense meteorological network of anemometers and probes installed for this purpose. This PhD thesis aims at exploiting the data of french alpine selected sites in the Savoie area (Les Menuires, Val Thorens, Aussois, Valloire). A statistical and exploratory data analysis permit to answer the recurrent problematic of the mountain winter climatology, maily the influence of the meteorological large scale and the mountain topography on the small scale spatial and temporal variability of the temperature and wind. This research deals with the hourly and winter means temperature behavior, their inversions, the thermal gradients according to the weather type classification of the Savoie area. A new model of the evolution of the winter thermal breezes is proposed, after having identified diurnal catabatic breezes' mechanisms which were still unknown. Lastly, we propose real applications for the management of skiing areas and artificial snow
APA, Harvard, Vancouver, ISO, and other styles
10

Biaou, Angelbert. "De la méso-échelle à la micro-échelle : désagrégation spatio-temporelle multifractale des précipitations." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001573.

Full text
Abstract:
Le passage de la méso-échelle, échelle des modèles de circulation générale GCM, de l'anglais "General Circulation Models", à la micro-échelle (échelle hydrologique), pour les précipitations, est un exercice assez complexe. Les champs de précipitations comme la plupart des champs géophysiques turbulents obéissent au concept d'invariance d'échelle, qui est une caractéristique principale des champs multifractals. Par ailleurs, il a été prouvé que le transfert d'énergie des grosses structures aux plus petites structures au sein d'un phénomène géophysique turbulent s'effectue de façon multiplicative (Kolmogorov, 1962; Mandelbrot, 1974 ...): un facteur aléatoire déterminant la fraction de flux transmis d'un gros tourbillon à un plus petit. Le travail que nous présentons ici s'inscrit dans le cadre du projet EDF "Prévisions saisonnières et Hydraulicité" dans la gestion de son parc hydroélectrique et a pour objectif la construction d'un modèle de désagrégation basé sur le principe d'invariance d'échelle des champs de précipitation, donc utilisant les propriétés des champs géophysiques mentionnées ci-dessus. Dans un premier temps, nous conduisons une analyse multifractale (Schertzer et Lovejoy , 1991) sur des séries pluviométriques de la France (243 séries pluviométriques au pas de temps de six minutes, constituées sur une dizaine d'années distribuées sur la France métropolitaine), ce qui nous permet de déduire les paramètres multifractals, dans le temps, dans l'espace ou dans le cas spatio-temporel. La seconde étape consiste à construire des cascades multifractales, à partir des valeurs saisonnières de pluies avec les paramètres déterminés dans la première étape. Le principe de cette deuxième partie consiste, à partir d'une prévision mensuelle sur des mailles de dimensions 243km×243km×32jours (correspondant à une anisotropie espace-temps de l'ordre de H=2/3 :x=y=t (3/2) ) voisines de celles des modèles de circulation générale (dimensions de l'ordre de 250km×250km×30jours) et à conduire la cascade multifractale, avec les paramètres multifractals préalablement déterminés, pour atteindre des valeurs de prévision sur des mailles de l'ordre de 1km×1km×1j. Les résultats obtenus devront faire l'objet d'un conditionnement orographique avant d'être comparés avec les valeurs réelles obtenues.
APA, Harvard, Vancouver, ISO, and other styles
11

Séchet, Etienne. "Modélisation d'une connaissance imprécise sur les influences des conditions météorologiques dans la propagation du son, à partir de données expérimentales." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090026.

Full text
Abstract:
La propagation du son dans l'atmosphère est influencée par les conditions météorologiques. Il est donc important pour l'acousticien de pouvoir appréhender la part de ces influences dans ses mesures. L'approche présentée se distingue par l'usage de la théorie des sous-ensembles flous: la modélisation des phénomènes s'appuie exclusivement sur les résultats expérimentaux de mesures simultanées de météorologie et d'acoustique, à grande distance d'une source sonore stable. Pour cela, un algorithme d'apprentissage d'une connaissance floue a été proposé, développé, puis utilisé. On cherche à rendre la modélisation du phénomène compatible avec l'information disponible: l'évaluation imprécise de l'état atmosphérique par l'opérateur à travers des modalités linguistiques. On cherche à extrapoler une mesure physique précise de façon à gagner en représentativité spatiale
APA, Harvard, Vancouver, ISO, and other styles
12

Goffart, Jeanne. "Impact de la variabilité des données météorologiques sur une maison basse consommation. Application des analyses de sensibilité pour les entrées temporelles." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00982150.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le cadre du projet ANR FIABILITE qui porte sur la fiabilité des logiciels de simulation thermique dynamique et plus particulièrement sur les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique et énergétique des bâtiments basse consommation. Les sollicitations telles que les occupants, la météo ou encore les scénarios de consommation des usages font partie des entrées les plus incertaines et potentiellement les plus influentes sur les performances d'un bâtiment basse consommation. Il est nécessaire pour pouvoir garantir des performances de déterminer les dispersions de sortie associées à la variabilité des entrées temporelles et d'en déterminer les variables responsables pour mieux réduire leur variabilité ou encore concevoir le bâtiment de manière robuste. Pour répondre à cette problématique, on se base sur les indices de sensibilité de Sobol adaptés aux modèles complexes à grandes dimensions tels que les modèles de bâtiment pour la simulation thermique dynamique. La gestion des entrées fonctionnelles étant un verrou scientifique pour les méthodes d'analyse de sensibilité standard, une méthodologie originale a été développée dans le cadre de cette thèse afin de générer des échantillons compatibles avec l'estimation de la sensibilité. Bien que la méthode soit générique aux entrées fonctionnelles, elle a été validée dans ce travail de thèse pour le cas des données météorologiques et tout particulièrement à partir des fichiers météo moyens (TMY) utilisés en simulation thermique dynamique. Les deux aspects principaux de ce travail de développement résident dans la caractérisation de la variabilité des données météorologiques et dans la génération des échantillons permettant l'estimation de la sensibilité de chaque variable météorologique sur la dispersion des performances d'un bâtiment. A travers différents cas d'application dérivés du modèle thermique d'une maison basse consommation, la dispersion et les paramètres influents relatifs à la variabilité météorologique sont estimés. Les résultats révèlent un intervalle d'incertitude sur les besoins énergétiques de l'ordre de 20% à 95% de niveau de confiance, dominé par la température extérieure et le rayonnement direct.
APA, Harvard, Vancouver, ISO, and other styles
13

Kohn, Jacqueline. "Inversion des observations spatiales micro-ondes pour la détermination de la température du sol en présence de neige." Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/2812.

Full text
Abstract:
The soil temperature is an essential parameter for the energy balance of the earth. Many methods have been developed to determine summer surface temperature, but the determination in the presence of snow is an ill-conditioned problem since it requires the differentiation of several temperatures (surface of snow, temperature gradient within the snowpack and temperature at the snow/soil interface). Our project was motivated by the need to improve the estimation of soil temperature, within the first centimeters of soil, under the snowpack.The passive microwave remote sensing could provide this information. We showed the potential of the passive microwave brightness temperature inversion at 10 GHz (derived from AMSR-E, version V5) for the estimation of the soil temperature by using a physical multilayer snow model (SNTHERM) coupled with a snow microwave emission model (HUT).The snow model is driven with measurements from meteorological stations (air temperature, precipitation, air relative humidity, wind speed) and data generated by the NARR meteorological reanalysis.The coupled model is validated with in-situ measurements and the retrieved soil temperatures are compared to those derived from the snow model and NARR.The overall root mean square error in the soil temperature retrieval is 3.29 K, which is lower than the error derived from models without the use of remote sensing. This validation must consider the fact that we are comparing temperatures from a point station to that corresponding to an area of 25 x 25 km on the satellite scale. We also show the possibility of mapping the soil temperature. This original procedure constitutes a very promising tool to characterize the soil under snow (frozen or not), as well as its evolution in locations where measurements are unavailable
APA, Harvard, Vancouver, ISO, and other styles
14

Parte, Yogesh. "Quelques techniques de couplage de modèles et de données." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/789/.

Full text
Abstract:
Le couplage de modèles et de données est le fil conducteur de ce travail, qui comporte deux parties distinctes. La première partie présente des techniques d'évaluation des performances de produits d'isolation et la deuxième partie présente une contribution en optimisation multidisciplinaire. La première partie commence par décrire les limites des mesures classiques en laboratoire qui ne tiennent pas compte de la convection, du rayonnement et de changement de phase. L'inconvénient des mesures in situ est de fournir des performances fortement dépendantes des conditions météorologiques. A partir de séquences de données météorologiques représentatives du site et des mesures in situ, nous arrivons à estimer les performances intrinsèques du système d'isolation. Cet objectif a été atteint en considérant des techniques telles que les réseaux neuronale (globale assimilation process - GAP), les techniques de classification (predictive clustering - PClust) et nous avons considéré un modèle thermique mono-dimensionnel (SPEC) décrivant les phénomènes complexes en présence. Les résultats numériques obtenus, sur des mesures in situ, montrent la stabilité des résultats par rapport aux conditions météorologique. Dans la deuxième partie, une nouvelle méthode intitulée DIVE (Disciplinary Interaction Variable Elimination) est introduite. On a montré que DIVE est une généralisation de la méthode de région de confiance et présente de nombreux avantages par rapport aux méthodes d'optimisation multidisciplinaire (MDO) connues : une meilleure précision de la solution des équations d'état, un cadre adéquat pour la gestion des méta modèles. En plus, la méthode DIVE peut être vue comme une généralisation des méthodes de MDO classiques<br>Coupling of models and data is the central theme of this work, which has two distinct parts. The first part presents techniques to estimate performance of insulation products and the second part presents a contribution in multidisciplinary optimization. The first part begins by describing limitations of conventional laboratory measurements which do not account for the effect of convection, radiation and phase change on insulation product. The drawback of in situ measurements is that the measured insulation performance strongly depends on meteorological conditions. From the sequences of characteristic meteorological data of the site and in situ measurements, objective is to estimate intrinsic performance of the insulation system. The goal has been achieved using techniques such as neural networks (global assimilation process - GAP), classification technique (predictive clustering - PClust) and using one dimensional heat transfer models (SPEC) describing the complex phenomena present. Numerical results obtained using in situ measurements are shown to be independent of meteorological conditions. In the second part, a new method named DIVE (Disciplinary Interaction Variable Elimination) is introduced. It is shown that DIVE is a generalization of the trust region method and presents number of advantages compared to existing multidisciplinary optimization (MDO) methods: better accuracy in the solution of the state equations, a framework for meta model management. In addition, DIVE method can be considered as a generalization of existing MDO methods
APA, Harvard, Vancouver, ISO, and other styles
15

Claverie, Jacques. "Application des données météorologiques de l'expérience "Pacem 1" à l'étude des situations atmosphériques conduisant à des phénomènes de propagation par trajets multiples." Paris 11, 1985. http://www.theses.fr/1985PA112152.

Full text
Abstract:
En s’appuyant sur les données recueillies au cours de l’expérience PACEM 1, cette thèse étudie les conditions météorologiques observées lorsque la propagation des ondes hertziennes est perturbée par des phénomènes de trajets multiples. Après une discussion détaillée de la qualité des mesures météorologiques, l’étude porte sur l’analyse des résultats fournis par un programme de tracé de rayons et sur l’examen plus spécifique de trois cas particuliers qui paraissent assez représentatifs des situations atmosphériques rencontrées au cours de l’expérience<br>Based upon the data collected during the PACEM 1 experiment, this thesis studies the meteorological conditions observed when the propagation on line-of-sight radio links suffers from multipath fading. After a complete discussion if the meteorological measurements accuracy, we analyze the results provided by a ray-tracing program. Then, three particular but quite representative cases are more precisely examined leading to some general conclusions
APA, Harvard, Vancouver, ISO, and other styles
16

Arsenault, Richard. "Utilisation des données du MRCC15 pour la détermination de la distribution spatiale optimale du réseau d’observations météorologiques en modélisation hydrologique distribuée et globale." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1006/1/ARSENAULT_Richard.pdf.

Full text
Abstract:
L’objectif de cette étude est de déterminer s’il existe un nombre optimal de stations météorologiques dans un réseau d’observations utilisé à des fins de modélisation hydrologique. Puisqu’il n’existe pas assez de données réelles dans les emplacements faiblement peuplés, tels que les milieux nordiques, pour parvenir à réaliser une telle étude, un monde virtuel a été utilisé. Les données du Modèle Régional de Climat Canadien à 15 km de résolution (MRCC15) ont servi à créer une base de données complète sur le bassin de la rivière Toulnustouc. Trois modèles hydrologiques ont été utilisés, dont deux modèles globaux (HSAMI et HMETS) et un modèle distribué (Hydrotel). Les stations météorologiques servant d’intrants aux modèles hydrologiques ont été choisies de manière à optimiser la performance hydrologique des modèles tout en minimisant le nombre desdites stations. Un algorithme génétique d’optimisation multi-objective a été mis en place pour déterminer les stations à utiliser et, par conséquent, leur emplacement optimal. Il a été démontré que le nombre de stations à utiliser pour le bassin versant virtuel de la rivière Toulnustouc devrait être d’au moins deux (2) mais ne pas dépasser cinq (5), et ce, peu importe le modèle hydrologique utilisé. L’ajout de stations supplémentaires ne procure aucune augmentation de la performance des modèles hydrologiques. L’algorithme d’optimisation démontre que les bonnes combinaisons de deux ou trois stations sont plus performantes en calage que si une haute densité de stations avait été utilisée. De plus, il a été démontré qu’un nombre élevé de stations placées au hasard se traduit par une variance plus faible dans la performance des modèles hydrologiques. Deux conclusions peuvent être directement tirées de cette étude : 1) Si un bassin doit être muni d’un réseau d’observation météorologique et que les stations sont placées de manière stratégique, il est possible d’obtenir des bases de données d’aussi bonne qualité pour la modélisation hydrologique en mode calage avec un faible nombre de stations que si un réseau de haute densité avait été utilisé 2) Si les stations sont placées aléatoirement sur le bassin versant, et s’il est financièrement acceptable de le faire, il est avantageux d’en installer le plus grand nombre possible pour réduire la variance des modélisations.
APA, Harvard, Vancouver, ISO, and other styles
17

D'amato, Julie. "Apport d'une base de données d'éboulements rocheux obtenues par scanner laser dans la caractérisation des conditions de rupture et processus associés." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAU025/document.

Full text
Abstract:
Ce travail de thèse a consisté à établir une base de données d'éboulements rocheux la plus exhaustive possible (pour des volumes supérieurs à 0,1 m3) pour une paroi rocheuse active dominant l'agglomération grenobloise, en utilisant des données de scanner laser et de photographie. Le site d'étude est une falaise calcaire de plusieurs kilomètres en bordure du massif de la Chartreuse, constituée de deux barres de morphologies différentes, l'une en calcaire lité, l'autre en calcaire massif.Les nuages de points issus du scanner laser permettent de reconstituer la falaise et les compartiments éboulés en 3D. Les données de surface des falaises, ainsi que des informations sur la localisation, les dimensions, le mécanisme de rupture propre à chaque compartiment ont été analysées pour caractériser l'évolution morphologique des deux falaises. Il apparait que la falaise inférieure, dont la morphologie dépend fortement de la fracturation et de l'érosion torrentielle des marnes sous-jacentes, présente une fréquence d'éboulement 22 fois plus importante que la falaise supérieure, de morphologie et pente régulière. De plus, dans la falaise inférieure, le taux d'érosion est 4 fois plus élevé entre 900 et 1000 m d'altitude, qu'entre 1000 et 1100 m. Cela montre que le régime d'érosion de cette falaise est transitoire, alors que celui de la falaise supérieure pourrait être permanent.Les éboulements rocheux détectés ont également été datés par un suivi photographique pendant 2,5 ans. Un suivi quasi-continu (1 photo toutes les 10 min), avec un objectif grand angle a permis de dater 214 éboulements de plus de 0,1 m3. Un suivi mensuel, avec un téléobjectif, a permis de dater 854 éboulements de plus de 0,01 m3. L'analyse de ces deux bases de données montre que la fréquence d'éboulements rocheux peut être 7 fois plus grande lors d'un épisode de gel-dégel que sans évènement météorologique particulier, et 4,5 fois plus grande lors d'un épisode de pluie. De plus, elle devient 26 fois plus grande si l'intensité depuis le début de l'épisode est supérieure à 5 mm/h. A partir de ces résultats, une échelle de 4 niveaux d'aléa a pu être proposée pour la prévision de l'aléa. La base de données plus précise et la définition des épisodes de gel-dégel ont permis de distinguer différentes phases dans un épisode de gel-dégel : refroidissement à température négative, réchauffement à température négative, et dégel (à température positive). Il apparait que les éboulements rocheux se produisent plus fréquemment lors des périodes de réchauffement (à température négative) et de dégel que lors des périodes de refroidissement. Cela suggère que les éboulements sont causés par la dilatation thermique de la glace plutôt que par la dilatation due au changement de phase. Ils peuvent cependant ne se produire que lors du dégel, car la cohésion de l'interface roche-glace peut être suffisante pour tenir le bloc jusqu'à la fonte de la glace. Des expériences in situ et en laboratoire ont permis de mesurer la pression de glace dans une fissure avec écoulement d'eau. Elles montrent que la glace formée par accrétion (gel de gouttes ou films d'eau) n'exerce pas de pression sur les parois rocheuses<br>Using laser scanner data, an exhaustive rockfall database (for volume larger than 0.1 m3) has been established for a rockwall located near the town of Grenoble (France). The study site is a long double cliff, on the eastern border of the Chartreuse Massif. The two cliffs consist respectively of thinly bedded and massive limestone, which show different structures, morphologies and rockfall activities.The 3D point clouds obtained by laser scanner allow to detect and model the fallen compartments in 3D. Information about cliff surface, and localization, dimensions, failure mechanism for each compartment were obtained and analyzed in order to characterize the morphological evolutions of the two cliffs. It appears that the morphology and the slope of the lower cliff is related to fracturing and torrential erosion which occurs in the marls below the cliff. The rockfall frequency for this lower cliff is 22 times higher than for the upper cliff. Moreover, in the lower cliff the erosion rate is at least 4 times higher for an elevation between 900 and 1000 m than between 1000 and 1100 m. These results show that the erosion process in the lower cliff is in a transient state, whereas it could be in a steady state in the upper cliff. The morphology and the slope of the upper cliff is more regular than for the lower cliff.Rockfalls have been dated by photographic surveys during 2.5 years. A near-continuous survey (1 photo each 10 mn) with a wide-angle lens have allowed dating 214 rockfalls larger than 0.1 m3, and a monthly survey with a telephoto lens, dating 854 rockfalls larger than 0.01 m3. The analysis of the two data bases shows that the rockfall frequency is 7 times higher during freeze-thaw episodes than without meteorological event, and 4.5 times higher during rainfall episodes. Moreover, it becomes 26 times higher when the mean rainfall intensity (since the beginning of the rainfall episode) is higher than 5 mm/h. Based on these results, a 4-level hazard scale has been proposed for hazard prediction. The more precise data base and freeze-thaw episode definition make it possible to distinguish different phases in freeze-thaw episodes: negative temperature cooling periods, negative temperature warming periods and thawing periods. It appears that rockfalls occur more frequently during warming and thawing periods than during cooling periods. It can be inferred that rockfalls are caused by thermal ice dilatation rather than by dilatation due to the phase transition. But they may occur only when the ice melt, because the cohesion of the ice-rock interface can be sufficient to hold the failed rock compartment until the ice melt. The formation of ice in rock cracks has been studied in the field and in laboratory to highlight its influence on rockfall triggering. It has been shown that ice forming by an accretion process (freezing of water drops) doesn't exert a pressure on the crack walls
APA, Harvard, Vancouver, ISO, and other styles
18

Kolmakova, Maria. "La variabilité hydrologique et climatique dans les bassins versants de la Sibérie Occidentale (selon les données des stations météorologiques, de ré-analyse météorologique et d'altimétrie satellitaire)." Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00784775.

Full text
Abstract:
Le caractère fortement marécageux du territoire de la Sibérie Occidentale et la rareté des stations d'observations hydrométéorologiques compliquent le suivi du régime hydrologique des bassins versants. Dans une telle situation, la prise en compte des données de ré-analyse météorologique et d'altimétrie satellitaires, assurant une couverture régulière de l'ensemble du territoire étudié, permet de compléter les observations in situ et d'élargir considérablement la portée des recherches, ce qui détermine la pertinence de ce travail. Le premier chapitre décrit les principaux facteurs physiques et géographiques qui ont déterminé le développement de la zone d'étude ; le deuxième chapitre est consacré aux méthodes d'étude; le troisième chapitre présente les résultats d'analyse de la variabilité des caractéristiques climatiques et hydrologiques dans les bassins fluviaux. L'originalité de cette thèse est d'appliquer une nouvelle approche de la quantité d'eau de la zone étudiée.
APA, Harvard, Vancouver, ISO, and other styles
19

Kemavo, Anoumou. "Potentialités des données de télédétection optique et radar libres d’accès pour l’évaluation et le suivi des écosystèmes forestiers tropicaux : étude de cas au Togo, en République Démocratique du Congo, en Guyane française et en République Dominicaine." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC2181/document.

Full text
Abstract:
Cette étude se propose d’explorer les potentialités des données de télédétection optique et radar libre d’accès pour l’évaluation et le suivi des écosystèmes forestiers tropicaux, secs ou humides. Différents sites tests situés dans ces écosystèmes forestiers tropicaux, ont été sélectionnés. Il s’agit : du parc national des Virunga en République Démocratique du Congo (RDC), de la réserve de biosphère de l’Oti-Keran-Mandourie (OKM) et de la réserve de faune de Togodo (RFT) au Togo, de la zone située autour du pont faisant la liaison entre la ville de Saint-Georges de l’Oyapock et la plaine du littorale de Kourou en Guyane française et de la province de la Monté Cristi en république Dominicaine. Différentes données ont été utilisés lors de cette étude : pour les images radar, des séries temporelles Sentinel-1, des mosaïques Alos-2 et, pour les images optiques, Sentinel-2 et Landsat-8. Des données exogènes comme les points GPS, modèles numériques de terrain et les cartes de référence. L’approche méthodologie utilisé est composée de prétraitement sur les images optiques et radar. Les approches spécifiques, variables selon le site d’étude, ont comporté : photo interprétation détaillée, la classification supervisée SVM, l’inventaire forestier et l’application des équations allométriques, une approche de détection des changements par décomposition en ondelettes, une de détection des changements automatiques par seuillage et la caractérisation de ces changements. Les principaux résultats sont les suivants : Site du PNVI : les cartes d’occupation du sol et les cartes binaires forêts, non-forêt de 1987, 1997, 2007 et 2017 sont réalisées sur le PNVI. Sur la période de 30 ans en utilisant les cartes binaires entre 1987 à 2017 le taux moyen annuel de déforestation est de 1,07%. Ce taux de déforestation élevé montre la pression croissante sur les ressources forestières dans le paysage des Virunga. Site de l’OKM et du RFT : une classification menée sur une combinaison d’images optiques et radar donne des performances légèrement meilleures que des classifications menées sur des images optiques et radar considérées séparément. Les cartes d’occupation du sol issues de ces classifications ont servis de base pour l’estimation de stocks de carbone à travers l’évaluation des ressources forestières. Sur le site de Saint-Georges de l’Oyapock, l’analyse temporelle menée à partir de décompositions en ondelettes, a permis de détecter trois grands types de changements dus à : la déforestation anthropique, les évolutions saisonnières et les évolutions agricoles. Sur le site de la province de Monté Cristi en République dominicaine, l’analyse conjointe d’images radar et optiques a permis de proposer une cartographie comportant 18 classes d’occupation du sol contrôlées sur le terrain avec une précision globale de plus de 90 %. Le suivi historique des forêts montre une régression de la couverture forestière. Parallèlement, nous observons une régression de la surface des mangroves entre 2015 et 2018.Cette étude a mis en évidence l’immense potentialité des données de télédétection optique et radar dans la caractérisation, la cartographie et le suivi des strates d’occupation des sols dans les écosystèmes tropicaux dans différentes régions du monde et en fonction des conditions saisonniers. Si chaque type de données de télédétection possède ces qualités et capacités discriminatoire, cette étude a montré que l’utilisation conjointe et combinée de deux types de données permet d’augmenté significativement la caractérisation et la discrimination des classes d’occupation des sols et ainsi augmente les chances de fiabilité des actions à mener<br>This study aims to explore the potential of optical remote sensing and free access radar data for the assessment and monitoring of tropical, dry or wet forest ecosystems. Different test sites located in these tropical forest ecosystems have been selected. These are: the Virunga National Park in the Democratic Republic of Congo (DRC), the Oti-Keran-Mandourie Biosphere Reserve (OKM) and Togodo Wildlife Reserve (RFT) in Togo, the area around the bridge linking the city of Saint-Georges de l'Oyapock and the plain of the Kourou coast in French Guiana and the province of Monté Cristi in the Dominican Republic. Different data were used in this study: for radar images, Sentinel-1 time series, Alos-2 mosaics and, for optical images, Sentinel-2 and Landsat-8. Exogenous data such as GPS points, digital terrain models and reference maps. The methodology approach used consists of pretreatment on optical and radar images. Specific approaches, varying by study site, included: photo detailed interpretation, supervised SVM classification, forest inventory and application of allometric equations, a wavelet decomposition detection approach, a detection approach automatic changes by thresholding and the characterization of these changes. The main results are:PNVI site: land cover maps and forest, non-forest binary maps of 1987, 1997, 2007 and 2017 are produced on the PNVI. Over the 30-year period using the binary maps between 1987 and 2017 the average annual rate of deforestation is 1.07%. This high deforestation rate shows the increasing pressure on forest resources in the Virunga landscape. OKM and RFT site: a classification carried out on a combination of optical and radar images gives slightly better performances than classifications carried out on optical and radar images considered separately. The land cover maps from these classifications were used as a basis for estimating carbon stocks through forest resource assessment. At the Saint-Georges de l'Oyapock site, temporal analysis using wavelet decompositions revealed three main types of changes due to anthropogenic deforestation, seasonal changes and agricultural changes. On the site of the Monté Cristi province in the Dominican Republic, the joint analysis of radar and optical images made it possible to propose a cartography comprising 18 field-controlled land cover classes with an overall accuracy of more than 90%. Historical forest monitoring shows a decline in forest cover. At the same time, we observe a regression of the surface of mangroves between 2015 and 2018.This study has highlighted the immense potential of optical and radar remote sensing data in the characterization, mapping and monitoring of land use layers in tropical ecosystems in different regions of the world and according to seasonal conditions. While each type of remote sensing data has these discriminatory qualities and capabilities, this study has shown that the joint and combined use of two types of data significantly increases the characterization and discrimination of land-use classes and thus increases the chances of reliability of the actions to be carried out
APA, Harvard, Vancouver, ISO, and other styles
20

Asem, Adel Ahmad. "Étude des données satellitaires multispectrales-multisources : application au bilan énergétique." Paris 11, 1986. http://www.theses.fr/1986PA112011.

Full text
Abstract:
Ce travail de thèse concerne l'analyse et les applications des données de télédétection, multispectrales et multisources. L'objectif de cette étude est l'estimation de paramètres physiques de la surface de la terre, tels que les flux d'énergie de grande et courte longueur d'onde. Les données satellitaires utilisées proviennent d'un satellite géostationnaire (METEOSAT) et de satellite en orbite polaire (NOAA système AVHRR). L'approche suivie est basée sur une triple analyse des données multispectrales et multisources: analyse géométrique, analyse radiométrique, et étude de correction atmosphérique pour éliminer l'effet dû aux contaminations atmosphériques. • L'analyse géométrique présente deux méthodes précises pour naviguer des images de satellites à orbite polaire et géostationnaire. Les méthodes sont alors utilisées pour le recadrage et/ou pour la rectification d'images. • L'analyse radiométrique présente une procédure automatique et opérationnelle d'étalonnage des radiomètres infrarouges à bord des satellites géostationnaires; cette procédure utilise des données de satellite en orbite polaire. •L'étude de correction atmosphérique est appliquée aux données des capteurs infrarouges à bord METEOSAT et NOAA/AVHRR pour estimer l'énergie émise par la surface terrestre. Afin de simplifier la complexité des traitements, on a conçu et mis en œuvre un système de base de données image afin d'appliquer automatiquement les procédures précédemment décrites; ainsi l'utilisateur peut, interactivement, exécuter n'importe quelle procédure sans nécessairement en connaître les détails techniques. La thèse présente le développement théorique de chaque procédure est son application aux données réelles<br>This thesis discusses the analysis and application of remotely sensed data from multispectral and multisource origins. The objective is to estimate physical parameters at the earth surface such as shortwave and longwave fluxes. Data from geostationary (METEOSAT) and polar orbiting (NOAA) satellites are used. The approach is based on analyzing the multispectral and multisource data from three different aspects: geometrical, radiometrical, and the removal of atmospheric effects. • In the geometrical analysis, the thesis presents two accurate methods to reference or navigate images of NOAA AVHRR and METEOSAT. The methods are used to register and/or rectify images. • In the radiometrical analysis, the thesis presents an automatic and operational procedure to calibrate the infrared radiometers on board geostationary satellites using infrared data from radiometers on board polar orbiting satellites. • The removal of atmospheric effects on satellite data is applied, in this thesis, to the infrared radiometers of NOAA and METEOSAT. The study presents a new analytical procedure which includes the effects of nonlinear absorption of the water vapor contents. Tests on real data showed a remarkable improvement on the retrieval of the sea surface temperatures from satellite data. To simplify the complexity of the above treatment, the thesis presents an image database system designed and implemented to automatically handle the above procedures so that a user can, inter­ actively, execute any operation without having to know, in details, the technical aspects of each operation. The thesis covers the theoretical development of each procedure and its application to real data
APA, Harvard, Vancouver, ISO, and other styles
21

Rosa, Domingos João Miguel. "Modes de variabilité géomagnétiques et de météo spatiale à partir des données satellites." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU007/document.

Full text
Abstract:
Ce travail porte sur l’anomalie de l’Atlantique Sud (SAA anglais). Nous avons étudié cette anomalie du champ magnétique principal à partir de données satellitaires afin de mieux connaître les différentes sources de ses variations temporelles. Nous avons appliqué l’analyse en composantes principales (PCA) à des données de flux de particules, de bruit d’un lidar embarqué et à des séries temporelles d’observatoires magnétiques virtuels - séries construites à partir de mesures satellitaires du champ géomagnétique. Les données de flux de particules proviennent de trois satellites de la série POES de la NOAA (POES 10, 12 et 15) ainsi que du satellite Jason-2 du CNES et de la NASA. Nous utilisons aussi le bruit affectant le lidar CALIOP du mini-satellite CALIPSO (CNES/NASA) comme substitut au flux de particules chargées heurtant ce satellite. Pour l’information géomagnétique, deux jeux de données d’observatoires virtuels construits à partir d’enregistrements des satellites CHAMP et Swarm ont été utilisés. Ces deux ensembles différents de données apportent des éclairages complémentaires sur l’anomalie de l’Atlantique Sud. L’analyse en composantes principales des données de flux de particules a permis de distinguer différents modes de variabilité, dus au soleil d’une part et au champ magnétique principal d’autre part. Le cycle solaire de 11 ans affecte à la fois le flux total de particules énergétiques à l’aplomb de l’anomalie de l’Atlantique Sud et leur distribution dans les différentes ceintures de radiation internes. Le champ magnétique principal, qui provient du noyau liquide de la Terre, est responsable d’une lente dérive de l’anomalie de l’Atlantique Sud et par ricochet de la région où il y a un flux intense de particules énergétiques. Une fois déconvolué le rôle du champ magnétique principal, on distingue deux composantes que l’on peut associer sans ambiguïté au cycle solaire. Sur des temps plus longs, nous avons finalement pu mettre en évidence une tendance dans le flux total de particules dans la région de l’Atlantique Sud. Peu d’analyses globales des modes de variabilité du champ interne ont été entreprises. Notre étude vise aussi à combler ce manque. L’analyse en composantes principales permet d’extraire jusqu’à trois modes d’origine interne et un mode annuel combinant contributions interne et externe. Ce dernier mode a une géométrie principalement quadrupolaire et zonale. Le premier des modes purement internes explique l’essentiel de la variabilité du champ et correspond à la variation séculaire moyenne au cours de l’intervalle de temps étudié. Il s’interprète principalement comme la variation de la partie du champ géomagnétique représentée par un dipôle qui serait de plus en plus décalé par rapport au centre de la Terre en direction de l’Asie du Sud-Est et qui serait aussi incliné par rapport à l’axe de rotation. Ainsi, ce simple modèle nous a été utile à la fois pour rendre compte du flux de particule au dessus de l’anomalie de l’Atlantique Sud et pour interpréter la variation du champ géomagnétique à l’échelle globale<br>This work focus on the study of the South Atlantic Anomaly (SAA) of the main magnetic field from satellite data, aiming at identifying different sources of variability. This is done by first applying the Principal Component Analysis (PCA) method to particle flux and dark noise data and then to Virtual Observatories (VOs) time series constructed from satellite magnetic records. Particle flux data are provided by three POES NOAA satellites (10, 12 and 15) and the Jason-2 satellite. Dark noise data, which can be interpreted as a proxy to particle flux, are provided by the CALIOP lidar onboard the CALIPSO satellite. The magnetic field information is used in the form of time series for VOs, which were computed from both CHAMP and Swarm data as two separate datasets. The two different groups of data provide different views of the South Atlantic Anomaly. Applying PCA to particle flux data on the SAA produces interesting modes that can be related with specific physical processes involved with the anomaly. The main sources that drive these modes are the Earth’s magnetic field and the Sun. The Sun’s 11-year cycle is a well-known quasi-period of solar activity. This work shows how it clearly affects the evolution of the energetic particles trapped in the inner Van Allen belt, by modulating both their total number and their distribution among different L-shells. The way particles become trapped and move near-Earth is also dictated by the main magnetic field geometry and intensity and so a good understanding of its variation allows for a better description of the evolution of these particles. The main magnetic field, with origin in the Earth’s liquid core, is responsible for a slow drift of the anomaly, associated to the Westward drift of several features of the main field. Changing the frame of reference to that of the eccentric dipole, we were able to identify two separate modes associated with the variability of the solar activity. On longer time-scales, we also observed a linear trend in the spatial evolution of the particle flux. A global analysis of variability modes of the Earth’s magnetic field has not been often addressed. This study also contributes to fill this gap. By decomposing satellite records of the magnetic field into PCA modes, we retrieved modes of internal origin and modes with large external contributions, with no a-priori considerations. An annual signal has been identified and associated with mainly external sources. It exhibits an interesting geometry dominated by a zonal quadrupolar geometry. As for the internal source, three separate modes were obtained from the longest time series analysed. The first of these modes explains most of the variability of the field and represents the mean secular variation. It is closely modelled by an eccentric tilted dipole moving away from the Earth’s center and toward under East Asia. As this study shows, this simple model turns out to be a useful tool that can be used both on regional studies of the SAA and on global studies of the geomagnetic field
APA, Harvard, Vancouver, ISO, and other styles
22

Di, Bella Carlos Marcelo. "Utilisation de données satellitaires couplées à un modèle de fonctionnement pour l'évaluation de la production prairiale à l'échelle nationale." Phd thesis, INAPG (AgroParisTech), 2002. http://tel.archives-ouvertes.fr/tel-00005663.

Full text
Abstract:
Les pâturages constituent un écosystème terrestre important. En France, ils occupent 21% de la superficie totale, ce qui justifie l'effort pour développer un suivi en temps réel de la production de la biomasse au niveau national, en prenant en compte la variabilité spatiale et temporelle des prairies. L'absence de méthodes indirectes de faible coût applicables à des grandes régions conduit à étudier les modèles de simulation du fonctionnement des cultures, comme dans le cas du système ISOP (Information et Suivi Objectif des Praires), et les possibilités offertes par la télédétection pour contribuer à améliorer le diagnostic fourni. Le travail effectué dans cette thèse a pour but d'évaluer ces possibilités. Pour cela, un nombre limité de treize régions fourragères (FR) de France ont été sélectionnées pour leur contexte géomorphologique, climatique et pédologique associé à leur production fourragère. Les données du capteur VEGETATION embarqué sur la plateforme SPOT4 (résolution spatiale de kilométrique) ont été utilisées pour fournir, à partir de modèles de déconvolution, les valeurs de réflectance correspondant à la signature d'une prairie pure. Celle-ci a été mise en relation avec certaines variables de croissance estimées par le modèle STICS-Prairie à l'intérieur du système ISOP. Au delà du bon accord général entre les deux types de données, l'analyse de ces relations a permis d'établir que celle qui lie les indices de végétation basés sur le moyen infrarouge (SWVI) et l'indice foliaire (LAI) était la plus forte. Les résultats obtenus confirment les capacités des données satellitaires à fournir des estimateurs de variables productives complémentaires de celles estimées à partir de modèles de simulation. En particulier les différences spatiales et temporelles entre les informations fournies par le satellite et les estimations du modèle, surtout pendant les périodes de récolte de biomasse dans les systèmes de production, pourraient contribuer à améliorer les estimations du modèle à l'échelle régionale.
APA, Harvard, Vancouver, ISO, and other styles
23

Hello, Gwenaëlle. "Prise en compte de la dynamique associée aux dépressions des latitudes moyennes dans la détermination des conditions initiales des modèles météorologiques." Toulouse 3, 2002. http://www.theses.fr/2002TOU30172.

Full text
Abstract:
Dans des circonstances favorables à l'occurrence d'une forte tempête, les modèles de prévision numérique sont extrêmement sensibles à la précision de leurs conditions initiales. Les dépressions météorologiques et les tempêtes restent ainsi difficilement prévisibles en dépit du réalisme des modèles et de leurs états initiaux. Face à cette situation, certains proposent de modifier le système d'observation au jour le jour, de manière à l'adapter en permanence à la situation météorologique. Cette voie, appelée l'observation adaptative, est abordée dans le cadre du présent travail. Mais c'est une autre voie qui est l'objet principal de la thèse, la possibilité, pour un jeu d'observation donné, d'affiner l'analyse des conditions initiales ou de modifier le processus d'assimilation. La prévisibilité d'une dépression est matérialisée par des champs de sensibilité, le vecteur gradient d'une propriété scalaire caractéristique d'une tempête prévue autour de 36 ou 48 heures. On propose deux manières d'utiliser cette information. Dans un premier temps, on considère une approche en correction de l'état initial. .<br>The numerical weather prediction models are very sensitive to their initial conditions in meteorological circumstances where the appearance of a strong storm is possible. The storms and rapid cyclogeneses remain events which are difficult to forecast in spite of the continuously realism increase of the current numerical weather prediction models and of their initial states. To find alternatives to this situation, one of the proposals consists in the day-to-day modification of the data observation system in order to adapt it to the weather of the day. This strategy which is called adaptive observation is tackled here. But, this is an other aspect which makes the core of the present work. .
APA, Harvard, Vancouver, ISO, and other styles
24

Côté, Kevin. "Évaluation de la précision de simulations du couvert neigeux par SNOWPACK à partir de données météorologiques in-situ et de prévision dans différents contextes climatiques des régions montagneuses canadiennes." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8757.

Full text
Abstract:
Résumé : Depuis les années 1990, environ 12 personnes par année sont tuées des suites d’une avalanche, ce qui en fait maintenant la principale cause de décès liés aux catastrophes hivernales au Canada (Stethem, 2003). Comme l'intérêt pour les activités de plein air telles que la randonnée, la motoneige et le ski de randonnée dans les régions éloignées augmente, l’amélioration de la prévision des avalanches à l'échelle régionale est nécessaire afin d’assurer la sécurité des usagers de l’arrière-pays. La logistique et les mesures de sécurité étant importantes lors de déplacements dans l’arrière-pays, les observations du couvert neigeux (observations d'avalanches, profils stratigraphiques et tests de stabilité) en terrain avalancheux ne sont pas toujours possibles pour les praticiens et prévisionnistes du milieu. Une alternative intéressante est d'analyser le manteau neigeux à distance en utilisant les sorties de modèles physiques de simulation du couvert neigeux. SNOWPACK, un modèle développé par l'Institut WSL sur la neige et les avalanches (SLF) en Suisse, est actuellement utilisé de manière opérationnelle pour la prévision d'avalanches et la recherche dans les Alpes suisses. Le projet vise à adapter SNOWPACK aux différentes conditions météorologiques dans les montagnes canadiennes (climat parfois côtier, transitionnel ou continental) et à l’utiliser dans le contexte de gestion de la prévention d’avalanches d’Avalanche Canada afin d’améliorer les prévisions à l’échelle régionale de la stabilité du couvert neigeux. Ce mémoire présente les traitements et analyses qui ont été menés pour évaluer le potentiel d'utilisation du modèle SNOWPACK forcé à la fois avec des données météorologiques in-situ et des données météorologiques de réanalyses. La validation des données de réanalyses avec les données in-situ pour les hivers de 2013-2014 et de 2014-2015 montre que le modèle météorologique GEM-LAM (Global Environmental Multiscale Limited Area Model) du Centre Météorologique Canadien (CMC) est le plus précis pour les trois contextes climatiques du projet. Un biais sur les données de précipitation proportionnel à l’intensité de celles-ci a toutefois également été identifié. Les sorties des simulations forcées avec GEM-LAM sont les plus proches des mesures observées sur le terrain en ce qui a trait aux indices de densité et de température relative moyenne, montrant des R² supérieurs et des valeurs de RMSE plus faibles. Finalement, l’analyse qualitative de la présence de couches faibles persistantes à l'aide de la plate-forme InfoEX d’Avalanche Canada montre un accord entre les dates de formation de croûte de regel et de givre de surface et les sorties du modèle SNOWPACK, confirmant son potentiel pour une adaptation canadienne.<br>Abstract : Since the 1990s, approximately 12 people per year are killed on average by avalanches, which are now the primary cause of death related to winter disasters in Canada (Stethem, 2003). As interest in outdoor activities, such as hiking, sledding and ski touring, in remote areas is increasing, there is a strong need for improved avalanche forecasting at the regional scale. Due to important logistical and safety matters, avalanche terrain measurements are not always possible for practitioners/forecasters (avalanche observations, snowpack profiles and stability tests). An interesting alternative is to analyze the snowpack without these challenges by using multilayered snow model outputs. SNOWPACK, a model developed by the WSL Institute for Snow and Avalanche Research (SLF) in Switzerland, is currently used operationally for avalanche prediction and research (Lehning, 1999) in the Swiss Alps. This projects aims to improve largescale predictions of snow stability and avalanches in a Canadian context using SNOWPACK. Thus, this documents presents the analyses that have been conducted to assess the potential of using SNOWPACK driven with both in-situ and forecasted meteorological data. A comparison of meteorological data from in-situ and predicted datasets for the winters of 2013-2014 and 2014-2015 shows that the GEM-LAM model is the most accurate for the three climatic contexts in this project, but also showed a precipitation bias proportional to its intensity/rate. Snow simulations forced with GEM-LAM are the closest to field measurements, showing a higher R² and lower RMSE values. Finally, predictions of persistent weak layers have also been validated using the InfoEx platform from Avalanche Canada. Crust and surface hoar formation dates simulated by SNOWPACK agree with the information reported in InfoEx highlighting the potential for a Canadian implementation.
APA, Harvard, Vancouver, ISO, and other styles
25

Dahmane, Khouloud. "Analyse d'images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC020.

Full text
Abstract:
De nos jours, les systèmes de vision sont de plus en plus utilisés dans le contexte routier. Ils permettent ainsi d'assurer la sécurité et faciliter la mobilité. Ces systèmes de vision sont généralement affectés par la dégradation des conditions météorologiques en présence de brouillard ou de pluie forte, phénomènes limitant la visibilité et réduisant ainsi la qualité des images. Afin d'optimiser les performances des systèmes de vision, il est nécessaire de disposer d'un système de détection fiable de ces conditions météorologiques défavorables.Il existe des capteurs météorologiques dédiés à la mesure physique, mais ils sont coûteux. Ce problème peut être résolu en utilisant les caméras qui sont déjà installées sur les routes. Ces dernières peuvent remplir simultanément deux fonctions : l'acquisition d'images pour les applications de surveillance et la mesure physique des conditions météorologiques au lieu des capteurs dédiés. Suite au grand succès des réseaux de neurones convolutifs (CNN) dans la classification et la reconnaissance d'images, nous avons utilisé une méthode d'apprentissage profond pour étudier le problème de la classification météorologique. L'objectif de notre étude est de chercher dans un premier temps à mettre au point un classifieur du temps, qui permet de discriminer entre temps « normal », brouillard et pluie. Dans un deuxième temps, une fois la classe connue, nous cherchons à développer un modèle de mesure de la distance de visibilité météorologique du brouillard. Rappelons que l'utilisation des CNN exige l'utilisation de bases de données d'apprentissage et de test. Pour cela, deux bases de données ont été utilisées, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), et la base "Cerema-AWH database", en cours d'acquisition depuis 2017 sur le site de la Fageole sur l'autoroute A75. Chaque image des deux bases est labellisée automatiquement grâce aux données météorologiques relevées sur le site permettant de caractériser diverses gammes de pluie et de brouillard. La base Cerema-AWH, qui a été mise en place dans le cadre de nos travaux, contient cinq sous-bases : conditions normales de jour, brouillard fort, brouillard faible, pluie forte et pluie faible. Les intensités de pluie varient de 0 mm/h à 70 mm/h et les visibilités météorologiques de brouillard varient entre 50m et 1800m. Parmi les réseaux de neurones connus et qui ont montré leur performance dans le domaine de la reconnaissance et la classification, nous pouvons citer LeNet, ResNet-152, Inception-v4 et DenseNet-121. Nous avons appliqué ces réseaux dans notre système de classification des conditions météorologiques dégradées. En premier lieu, une étude justificative de l'usage des réseaux de neurones convolutifs est effectuée. Elle étudie la nature de la donnée d'entrée et les hyperparamètres optimaux qu'il faut utiliser pour aboutir aux meilleurs résultats. Ensuite, une analyse des différentes composantes d'un réseau de neurones est menée en construisant une architecture instrumentale de réseau de neurones. La classification des conditions météorologiques avec les réseaux de neurones profonds a atteint un score de 83% pour une classification de cinq classes et 99% pour une classification de trois classes.Ensuite, une analyse sur les données d'entrée et de sortie a été faite permettant d'étudier l'impact du changement de scènes et celui du nombre de données d'entrée et du nombre de classes météorologiques sur le résultat de classification.Enfin, une méthode de transfert de bases de données a été appliquée. Cette méthode permet d'étudier la portabilité du système de classification des conditions météorologiques d'un site à un autre. Un score de classification de 63% a été obtenu en faisant un transfert entre une base publique et la base Cerema-AWH. (...)<br>Nowadays, vision systems are becoming more and more used in the road context. They ensure safety and facilitate mobility. These vision systems are generally affected by the degradation of weather conditions, like heavy fog or strong rain, phenomena limiting the visibility and thus reducing the quality of the images. In order to optimize the performance of the vision systems, it is necessary to have a reliable detection system for these adverse weather conditions.There are meteorological sensors dedicated to physical measurement, but they are expensive. Since cameras are already installed on the road, they can simultaneously perform two functions: image acquisition for surveillance applications and physical measurement of weather conditions instead of dedicated sensors. Following the great success of convolutional neural networks (CNN) in classification and image recognition, we used a deep learning method to study the problem of meteorological classification. The objective of our study is to first seek to develop a classifier of time, which discriminates between "normal" conditions, fog and rain. In a second step, once the class is known, we seek to develop a model for measuring meteorological visibility.The use of CNN requires the use of train and test databases. For this, two databases were used, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), and the "Cerema-AWH database", which has been acquired since 2017 on the Fageole site on the highway A75. Each image of the two bases is labeled automatically thanks to meteorological data collected on the site to characterize various levels of precipitation for rain and fog.The Cerema-AWH base, which was set up as part of our work, contains 5 sub-bases: normal day conditions, heavy fog, light fog, heavy rain and light rain. Rainfall intensities range from 0 mm/h to 70mm/h and fog weather visibilities range from 50m to 1800m. Among the known neural networks that have demonstrated their performance in the field of recognition and classification, we can cite LeNet, ResNet-152, Inception-v4 and DenseNet-121. We have applied these networks in our adverse weather classification system. We start by the study of the use of convolutional neural networks. The nature of the input data and the optimal hyper-parameters that must be used to achieve the best results. An analysis of the different components of a neural network is done by constructing an instrumental neural network architecture. The conclusions drawn from this analysis show that we must use deep neural networks. This type of network is able to classify five meteorological classes of Cerema-AWH base with a classification score of 83% and three meteorological classes with a score of 99%Then, an analysis of the input and output data was made to study the impact of scenes change, the input's data and the meteorological classes number on the classification result.Finally, a database transfer method is developed. We study the portability from one site to another of our adverse weather conditions classification system. A classification score of 63% by making a transfer between a public database and Cerema-AWH database is obtained.After the classification, the second step of our study is to measure the meteorological visibility of the fog. For this, we use a neural network that generates continuous values. Two fog variants were tested: light and heavy fog combined and heavy fog (road fog) only. The evaluation of the result is done using a correlation coefficient R² between the real values and the predicted values. We compare this coefficient with the correlation coefficient between the two sensors used to measure the weather visibility on site. Among the results obtained and more specifically for road fog, the correlation coefficient reaches a value of 0.74 which is close to the physical sensors value (0.76)
APA, Harvard, Vancouver, ISO, and other styles
26

Pujol, Marie-Isabelle. "Analyse de la variabilité de surface en Méditerranée à partir des données altimétriques et comparaison aux simulations MERCATOR et MOG2D." Toulouse 3, 2006. http://www.theses.fr/2006TOU30005.

Full text
Abstract:
Parce qu'elle regroupe l'ensemble des processus physiques observés dans l'océan global, la Méditerranée est considérée comme une zone clé pour la compréhension de la variabilité de la circulation océanique. Plusieurs études lui sont spécialement dédiées. Le but de cette thèse est de compléter ces études en caractérisant de manière plus spécifique la variabilité de surface. Près de 12 ans (1993-2004) de mesures altimétriques (Topex/Poseidon, ERS1/2, Jason, Envisat) ont été spécialement traitées pour le cas particulier du bassin Méditerranéen. Conjointement aux mesures altimétriques, les sorties des modèles MERCATOR et MOG2D ont été exploitées avec deux objectifs principaux: valider les simulations MERCATOR par la confrontation altimétrie/modèle et compléter le jeu de données. Trois composantes principales de la variabilité de surface ont ainsi été étudiées : la circulation générale de surface, l'activité mésoéchelle et la variabilité haute fréquence de la surface.
APA, Harvard, Vancouver, ISO, and other styles
27

Hernandez, Fabrice. "Comparaison et combinaison de données altimétriques et lagrangiennes. Application à la campagne SEMAPHORE-93." Toulouse 3, 1995. http://www.theses.fr/1995TOU30295.

Full text
Abstract:
Cette these porte sur l'etude de l'ocean a travers des mesures satellitales et lagrangiennes. Les satellites altimetriques fournissent une mesure de la topographie de la surface des oceans, donc des courants geostrophiques. On suit aussi les courants marins a travers les trajectoires argos des bouees derivantes. On compare puis combine les donnees altimetriques et lagrangiennes, qui decrivent chacune en partie la circulation oceanique. Deux zones sont distinctes sont etudiees. Le pacifique tropical, avec les donnees altimetriques de geosat et les bouees derivantes du programme toga durant la periode 1987-1989, pour comparer leurs composantes oceaniques a grande echelle. Puis l'atlantique nord-est, dans le bassin acores-canaries, pour etudier la circulation mesoechelle associee au courant des acores, a l'aide des mesures de semaphore-93. Une etude de strategie de lacher des flotteurs a ete effectuee lors de la preparation de cette campagne, par une optimisation de la distribution des bouees a l'aide d'un algorithme genetique. On montre que le deploiement des bouees doit etre decale vers l'ouest de la zone, avec une distance optimale de 90-100 km entre chacune des bouees. Les donnees oceaniques de la campagne sont comparees aux mesures altimetriques des missions topex/poseidon et ers-1. Le lacher de plus de 100 bouees derivantes de trois types differents ainsi que les mesures hydrologiques de juillet a novembre 1993 nous permettent de 1) verifier la precision des donnees altimetriques, meilleure que 5 cm ; 2) mettre en evidence l'apport de l'altimetrie pour la cartographie de la circulation oceanique ; 3) quantifier la dynamique de cette zone de l'ocean, en termes de circulation moyenne, de dispersion lagrangienne et de turbulence mesoechelle (tenseur de reynolds). Enfin, on etudie la composante ageostrophique du courant en surface en comparant les trajectoires de differents types de bouees et le vent
APA, Harvard, Vancouver, ISO, and other styles
28

Thirel, Guillaume. "Amélioration des prévisions d'ensemble des débits sur la France de SAFRAN-ISBA-MODCOU." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00460645.

Full text
Abstract:
L'objectif de cette thèse était d'améliorer les performances des prévisions d'ensemble hydrologiques du modèle SAFRAN-ISBA-MODCOU (SIM) de Météo-France. D'abord, la Prévision d'Ensemble ARPEGE (PEARP) a été utilisée (en remplacement de l'EPS à 10 jours du CEPMMT). Une étude statistique comparative à courte échéance des deux forçages météorologiques désagrégés et prévisions de débits a été réalisée. Ensuite, les états initiaux des prévisions d'ensemble de débits ont été améliorés par une assimilation des débits dans SIM-analyse (qui initialise le système ensembliste). Le but est d'améliorer les simulations de débits en modifiant l'humidité du sol avec la méthode du Best Linear Unbiased Estimator (BLUE). Plusieurs configurations ont été testées et ont montré une nette amélioration des simulations de débits. Enfin, on a quantifié l'impact de cette assimilation de débits sur les deux systèmes de prévisions d'ensemble des débits. L'amélioration est significative, même à moyenne échéance.
APA, Harvard, Vancouver, ISO, and other styles
29

Alomari, Asaad. "Evaluation des risques d'altération d'origine thermo-hydro-mécanique des pierres du patrimoine bâti." Phd thesis, Université d'Orléans, 2014. http://tel.archives-ouvertes.fr/tel-01069417.

Full text
Abstract:
Cette étude traite du vieillissement des ouvrages en pierres calcaires en interaction avec leur environnement, en se basant à la fois sur la caractérisation des matériaux et des conditions climatiques locales. L'objectif de cette thèse est d'étudier le rôle des conditions climatiques sur la dégradation des pierres par une estimation quantitative du poids des différents processus physiques de dégradation : gel-dégel, condensation and dilatations hygro-thermiques empêchées. Deux sites majeurs ont été sélectionnés : le Château de Chambord en France et le site d'Al-Namrud en Irak, qui est une ancienne capitale assyrienne datant de 1280 BC. Les matériaux français étudiés sont le tuffeau et la pierre de Richemont, qui a été abondamment utilisée comme pierre de substitution durant les restaurations du 20ème siècle. Les matériaux irakiens utilisés sont issus de prélèvements sur des pierres d'origines altérées, des pierres d'origine saines, ainsi que la pierre candidate pour la restauration du site. L'approche choisie pour l'estimation du risque d'endommagement commence par la réalisation d'une campagne expérimentale de caractérisation multi-physiques et multi-échelles des pierres calcaires utilisées à Chambord, ajouté à la collecte des données météorologiques à Chambord grâce à une station et des mesures dans la pierre. L'estimation du risque d'endommagement est obtenue en combinant l'utilisation des données climatiques et de la caractérisation des matériaux, grâce au calcul de l'impact des différents processus physiques de dégradation, qui a nécessité plusieurs développements méthodologiques. La méthodologie proposée pour l'estimation du risque d'endommagement est ensuite appliquée au site d'Al-Namrud. Finalement, un carnet de santé numérique préliminaire du plus édifiant monument d'Al-Namrud - la Ziggurat - est réalisé pour son diagnostic de durabilité.
APA, Harvard, Vancouver, ISO, and other styles
30

Lascaux, Franck. "Simulations numériques d'épisodes de précipitations intenses documentés lors de la campagne de mesures MAP (mesoscale alpine programme)." Toulouse 3, 2005. http://www.theses.fr/2005TOU30228.

Full text
Abstract:
Des épisodes de précipitations intenses se produisent fréquemment sur les Alpes durant la saison automnale, occasionnant régulièrement de nombreux dégâts matériels et humains. L'amélioration de leur prévision est un enjeu majeur de la météorologie opérationnelle actuelle. En 1999, le programme MAP (Mesoscale Alpine Programme) a été mis en place afin de recueillir une base de données importante décrivant plusieurs de ces épisodes. Certains de ces épisodes ont été simulés à l'aide du modèle non-hydrostatique Meso-NH. L'attention est d'abord portée sur la sensibilité de la prévision d'un épisode fortement convectif au schéma microphysique utilisé, ainsi qu'aux conditions initiales. Ensuite l'étude est élargie à deux autres évènements et il est mis en évidence des comportements microphysiques différents en fonction des caractéristiques du flux incident<br>Heavy rainfalls frequently occur on the southern side of the Alps, resulting in casualties and millions of US dollars worth of damage. Improving the understanding and forecasting of these events is one of the central objectives of current operational meteorology. In 1999, the Mesoscale Alpine Programme (MAP) provided detailed documentation on several major rain events. In this study, some of these events are simulated using the French non-hydrostatic model, Meso-NH. We first focus on the sensitivity of the forecasting of a strong convective event to the microphysical scheme used in the model, and to the initial conditions. The study is then broadened to two other MAP events. It appears clearly that different flow regimes generate different microphysical behaviour of the clouds
APA, Harvard, Vancouver, ISO, and other styles
31

Alomari, Asaad. "Evaluation des risques d’altération d’origine thermo-hydro-mécanique des pierres du patrimoine bâti." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2012/document.

Full text
Abstract:
Cette étude traite du vieillissement des ouvrages en pierres calcaires en interaction avec leur environnement, en se basant à la fois sur la caractérisation des matériaux et des conditions climatiques locales. L’objectif de cette thèse est d’étudier le rôle des conditions climatiques sur la dégradation des pierres par une estimation quantitative du poids des différents processus physiques de dégradation : gel-dégel, condensation and dilatations hygro-thermiques empêchées. Deux sites majeurs ont été sélectionnés : le Château de Chambord en France et le site d’Al-Namrud en Irak, qui est une ancienne capitale assyrienne datant de 1280 BC. Les matériaux français étudiés sont le tuffeau et la pierre de Richemont, qui a été abondamment utilisée comme pierre de substitution durant les restaurations du 20ème siècle. Les matériaux irakiens utilisés sont issus de prélèvements sur des pierres d’origines altérées, des pierres d’origine saines, ainsi que la pierre candidate pour la restauration du site. L’approche choisie pour l’estimation du risque d’endommagement commence par la réalisation d’une campagne expérimentale de caractérisation multi-physiques et multi-échelles des pierres calcaires utilisées à Chambord, ajouté à la collecte des données météorologiques à Chambord grâce à une station et des mesures dans la pierre. L’estimation du risque d’endommagement est obtenue en combinant l’utilisation des données climatiques et de la caractérisation des matériaux, grâce au calcul de l’impact des différents processus physiques de dégradation, qui a nécessité plusieurs développements méthodologiques. La méthodologie proposée pour l’estimation du risque d’endommagement est ensuite appliquée au site d’Al-Namrud. Finalement, un carnet de santé numérique préliminaire du plus édifiant monument d’Al-Namrud – la Ziggurat – est réalisé pour son diagnostic de durabilité<br>This study deals with the ageing of limestone structures as a result of the interaction with their environment. It is based on the characterization of both the material and the local climatic conditions. The objective of this thesis is to study the role of climatic conditions in the degradation of stone by quantitative estimation of the weight of the different physical weathering processes: freezing-thawing, condensation and restrained hygro-thermal dilations. Two major historic sites were selected: the Château of Chambord in France and the site of Al-Nimrud City in Iraq, an ancient Assyrian capital, built in 1280 BCE. The French materials studied are tuffeau and Richemont stone, extensively used as a substitute for tuffeau restoration during part of the 20th century. The Iraqi materials studied are samples cored in situ in original weathered stones, original healthy stones, and the stone that could be used as a substitute for restoration. The approach chosen for damage risk assessment starts by the realization of a multiphysics and multiscale experimental characterization campaign of the limestone used at Chambord, added to the collection of meteorological data at Chambord thanks to a weather station supplemented by situ stone measurements. The damage risk assessment is obtained by the combined use of climate data and material characterization, through the calculation of the impact of thedifferent physical weathering processes, which required some methodological developments. The proposed damage risk assessment methodology is then applied to Al-Nimrud site. Finally, a preliminary digital health record of the most prominent monument of Al-Nimrud - the Al-Ziggurat - is carried out to diagnose its durability
APA, Harvard, Vancouver, ISO, and other styles
32

Merino, Luis. "Modélisation du rayonnement solaire pour la simulation thermique en milieu urbain." Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2115.

Full text
Abstract:
Le rayonnement solaire est la variable la plus importante pour le calcul du bilan thermique du bâtiment. Son calcul requiert des relations géométriques pour la composante directe et un modèle de ciel pour distribuer le rayonnement diffus sur la voûte céleste. Des modèles développés pour des collecteurs solaires sont utilisés pour calculer le rayonnement solaire atteignant l'enveloppe du bâtiment. Des outils calculent le rayonnement en adaptant des modèles de ciel développés pour l'éclairage naturel. Bien que ces modèles de ciel, avec des genèses différents, servent à calculer le rayonnement solaire, il convient de préciser quel est le plus adapté pour travailler en milieu urbain.En nous appuyant sur une étude des données météorologiques, des modèles de ciel et des techniques numériques, on a mis en place un code susceptible de calculer le rayonnement direct (soleil) et diffus (ciel) et leur interaction avec la géométrie urbaine. La nouveauté réside dans l'évaluation du rayonnement solaire en utilisant un modèle de ciel isotrope et deux anisotropes. L’interaction entre ces modèles et la géométrie urbaine est mise en évidence avec une série d’exemples géométriques progressivement plus complexes. Des méthodes pour tuiler la voûte céleste sont présentées. Les différences entre le rayonnement calculé avec les modèles anisotropes (le modèle de source ponctuelle et le modèle tout temps de Perez) qui sont peu importantes dans une scène dégagée, deviennent significatives dans une scène urbaine. Des contributions ont également été apportées à la mise en place d’une station météorologique ainsi que des procédures pour l’analyse statistique des données et leur contrôle de qualité<br>Solar irradiation is the most important parameter for building thermal simulation. Its calculation requires geometrical relationships for the direct radiation from the Sun and a sky model to distribute the radiance over the sky vault. Sky models developed for solar collectors are used to calculate the building’s solar irradiation availability. Some software calculates building’s irradiation by adapting sky models for lighting simulations. These models allow to compute solar irradiation, but the selection of the most suitable model for urban applications has not been defined clearly enough. We developed a code, based on the study of numerical methods, sky models and the necessary meteorological data. It calculates the solar irradiation availability in the urban context. The novelty lies in its capacity to evaluate the solar irradiation from the Sun and the sky by using three sky models: one isotropic and two anisotropic. The interaction between each sky model and the urban context is made clear in a series of progressively more complex geometric examples. Procedures to partition the sky vault are presented.Differences between the predicted irradiance by the anisotropic models (Perez punctual source and Perez All-Weather) are classified as small and large in unobstructed and obstructed scenes respectively. Contributions have also been made to set up a meteorological station. Statistical analyses as well as quality control procedures of meteorological data were also implemented
APA, Harvard, Vancouver, ISO, and other styles
33

Jannot, Yves. "Production d'eau, d'air frais et conservation des produits par des procédés solaires rustiques : possibilités d'application en zone sahélienne." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL076N.

Full text
Abstract:
Nous étudions dans ce rapport les possibilités d'amélioration des conditions de vie en zone sahélienne par utilisation de procédés solaires rustiques à savoir : 1) la production d'eau par captage de l'humidité atmosphérique ; 2) la production d'air frais par refroidissement évaporatif direc t ; 3) la conservation des produits agricoles par utilisation de séchoirs solaires indirects. Cette étude nous conduit à un rejet du premier procédé, pour des raisons de cout et d'encombrement. Elle nous permet par contre de montrer tout l'intérêt présenté par les deux autres en zone sahélienne. Cette conclusion est confirmée par les résultats d'expérimentation d'un ventilo-humidificateur et d'un séchoir solaire indirect à convection naturelle
APA, Harvard, Vancouver, ISO, and other styles
34

Kurzrock, Frederik. "Assimilation de données satellitaires géostationnaires dans des modèles atmosphériques à aire limitée pour la prévision du rayonnement solaire en région tropicale." Thesis, La Réunion, 2019. https://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/19_13_FKurzrock.pdf.

Full text
Abstract:
La variabilité de l’énergie solaire impose de limiter sa fraction d’injection instantanée dans le réseau électrique. Une amélioration des prévisions de l’ensoleillement conduirait à élever la limite de ce seuil, spécialement dans les zones non-interconnectées comme La Réunion. Une plus haute précision de prévision est particulièrement difficile à atteindre dans le cas des îles tropicales à cause de la convection prononcée et des circulations thermiques complexes au niveau local. Les modèles de prévision numérique du temps à aire limitée permettent de prévoir les processus liés aux nuages et l'éclairement solaire à de hautes résolutions spatio-temporelles, de l’ordre de quelques kilomètres et minutes. Néanmoins, ces modèles parviennent rarement à prévoir précisément l'évolution de la couche nuageuse et ont donc tendance à surestimer l'éclairement solaire. L’affinement des conditions initiales nuageuses des modèles régionaux par l’assimilation d’observations de satellites météorologiques géostationnaires est un moyen efficace pour améliorer les prévisions à court terme. Toutefois, une grande variété d'approches pour l'assimilation des données satellitaires existe et, jusqu'à présent, la recherche s’est concentrée sur les moyennes latitudes. Cette thèse aborde l'assimilation d'observations de satellites géostationnaires avec des modèles à aire limitée dans le sud-ouest de l'Océan Indien. Dans un premier temps, l'état de l'art des approches existantes pour l'assimilation de luminances observées et de propriétés physiques des nuageuse avec les modèles régionaux est dressé. Puis, l'une des approches les plus prometteuses est identifiée et appliquée au sud-ouest de l'Océan Indien. Dans les expériences effectuées, la teneur en eau des nuages est obtenue à partir des produits de propriétés nuageuses SatCORPS de la NASA. Ces observations sont assimilées avec un filtre de Kalman d’ensemble et le modèle Weather Research and Forecasting. Un ensemble de 41 membres et un espacement horizontal des points de grille de 12 km est appliqué avec un intervalle de cyclage de 6 heures pour l'assimilation. Le Data Assimilation Research Testbed et son opérateur d'observations de teneur en eau des nuages sont utilisés pour l'assimilation d'observations dans les phases solide, surfondue, et liquide. L'impact de cette approche d'assimilation sur des prévisions de l'éclairement horizontal global est évalué pour l'été austral 2017/2018 en utilisant des observations de pyranomètres sur l'île de La Réunion. Un effet positif de la méthode appliquée sur les prévisions de l'éclairement est constaté surtout pour les 14 premières heures de prévision. Différents aspects de l'amélioration des prévisions, grâce à l'assimilation de données, sont analysés par le biais d’expériences témoins sans assimilation, d’expériences avec un domaine de grille imbriquée avec un espacement horizontal des points de grille de 4 km et d’une comparaison avec des modèles opérationnels. Les observations quadrillées utilisées étant disponibles à l'échelle mondiale, la méthode offre une approche applicable et évaluable pour d'autres régions du monde<br>The variability of solar irradiance necessitates to limit the instantaneous feed-in of solar power to electricity grids. An improvement of solar irradiance forecasts would allow to increase the defined threshold limits, especially in non-interconnected zones such as Reunion Island. Achieving higher forecast accuracy is particularly challenging in the case of tropical islands due to pronounced convection and local thermal circulations. Limited-area numerical weather prediction (NWP) models allow to forecast cloud processes and solar irradiance at high spatio-temporal resolutions of a few kilometres and minutes. Nevertheless, they often fail to accurately predict cloudiness evolution and thus tend to overestimate solar irradiance. Refining the initial conditions of regional models in terms of clouds is an efficient means for improving short-term cloud cover and irradiance forecasts. The assimilation of geostationary meteorological satellite observations can achieve this improvement. Nevertheless, a variety of satellite data assimilation (DA) approaches exist and research has focused on mid-latitudes so far. This thesis deals with the assimilation of geostationary satellite observations with limited-area models in the southwestern Indian Ocean. In a first step, the state of the art in terms of existing approaches for radiance and cloud property retrieval assimilation with regional-scale models is reviewed. In consequence, one of the most promising approaches is identified and applied to the southwestern Indian Ocean. In the performed experiments, multi-phase cloud water path retrievals from NASA Langley's SatCORPS cloud products are assimilated with an ensemble Kalman filter using the Weather Research and Forecasting model. A 41-member ensemble at 12 km grid spacing is applied with a DA cycling interval of 6 hours. The Data Assimilation Research Testbed and its forward operator for cloud water path are used to assimilate gridded cloud water retrievals in the ice, supercooled liquid, and liquid phase. The impact of this assimilation approach on forecasts of global horizontal irradiance (GHI) is evaluated for austral summer 2017/2018 using pyranometer observations on Reunion Island. A distinct positive impact of the applied method on the first 14 hours of GHI forecasts is found. Different aspects of the forecast improvement due to DA are analysed by means of control experiments without DA, experiments with a nested domain at 4 km grid spacing, and a comparison with operational NWP models. As the utilised gridded cloud products are available globally, the method offers a portable and globally applicable approach that may also be evaluated for other regions of the Earth
APA, Harvard, Vancouver, ISO, and other styles
35

Duthon, Pierre. "Descripteurs d'images pour les systèmes de vision routiers en situations atmosphériques dégradées et caractérisation des hydrométéores." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC065/document.

Full text
Abstract:
Les systèmes de vision artificielle sont de plus en plus présents en contexte routier. Ils sont installés sur l'infrastructure, pour la gestion du trafic, ou placés à l'intérieur du véhicule, pour proposer des aides à la conduite. Dans les deux cas, les systèmes de vision artificielle visent à augmenter la sécurité et à optimiser les déplacements. Une revue bibliographique retrace les origines et le développement des algorithmes de vision artificielle en contexte routier. Elle permet de démontrer l'importance des descripteurs d'images dans la chaîne de traitement des algorithmes. Elle se poursuit par une revue des descripteurs d'images avec une nouvelle approche source de nombreuses analyses, en les considérant en parallèle des applications finales. En conclusion, la revue bibliographique permet de déterminer quels sont les descripteurs d'images les plus représentatifs en contexte routier. Plusieurs bases de données contenant des images et les données météorologiques associées (ex : pluie, brouillard) sont ensuite présentées. Ces bases de données sont innovantes car l'acquisition des images et la mesure des conditions météorologiques sont effectuées en même temps et au même endroit. De plus, des capteurs météorologiques calibrés sont utilisés. Chaque base de données contient différentes scènes (ex: cible noir et blanc, piéton) et divers types de conditions météorologiques (ex: pluie, brouillard, jour, nuit). Les bases de données contiennent des conditions météorologiques naturelles, reproduites artificiellement et simulées numériquement. Sept descripteurs d'images parmi les plus représentatifs du contexte routier ont ensuite été sélectionnés et leur robustesse en conditions de pluie évaluée. Les descripteurs d'images basés sur l'intensité des pixels ou les contours verticaux sont sensibles à la pluie. A l'inverse, le descripteur de Harris et les descripteurs qui combinent différentes orientations sont robustes pour des intensités de pluie de 0 à 30 mm/h. La robustesse des descripteurs d'images en conditions de pluie diminue lorsque l'intensité de pluie augmente. Finalement, les descripteurs les plus sensibles à la pluie peuvent potentiellement être utilisés pour des applications de détection de la pluie par caméra.Le comportement d'un descripteur d'images en conditions météorologiques dégradées n'est pas forcément relié à celui de la fonction finale associée. Pour cela, deux détecteurs de piéton ont été évalués en conditions météorologiques dégradées (pluie, brouillard, jour, nuit). La nuit et le brouillard sont les conditions qui ont l'impact le plus important sur la détection des piétons. La méthodologie développée et la base de données associée peuvent être utilisées à nouveau pour évaluer d'autres fonctions finales (ex: détection de véhicule, détection de signalisation verticale).En contexte routier, connaitre les conditions météorologiques locales en temps réel est essentiel pour répondre aux deux enjeux que sont l'amélioration de la sécurité et l'optimisation des déplacements. Actuellement, le seul moyen de mesurer ces conditions le long des réseaux est l'installation de stations météorologiques. Ces stations sont coûteuses et nécessitent une maintenance particulière. Cependant, de nombreuses caméras sont déjà présentes sur le bord des routes. Une nouvelle méthode de détection des conditions météorologiques utilisant les caméras de surveillance du trafic est donc proposée. Cette méthode utilise des descripteurs d'images et un réseau de neurones. Elle répond à un ensemble de contraintes clairement établies afin de pouvoir détecter l'ensemble des conditions météorologiques en temps réel, mais aussi de pourvoir proposer plusieurs niveaux d'intensité. La méthode proposée permet de détecter les conditions normales de jour, de nuit, la pluie et le brouillard. Après plusieurs phases d'optimisation, la méthode proposée obtient de meilleurs résultats que ceux obtenus dans la littérature, pour des algorithmes comparables<br>Computer vision systems are increasingly being used on roads. They can be installed along infrastructure for traffic monitoring purposes. When mounted in vehicles, they perform driver assistance functions. In both cases, computer vision systems enhance road safety and streamline travel.A literature review starts by retracing the introduction and rollout of computer vision algorithms in road environments, and goes on to demonstrate the importance of image descriptors in the processing chains implemented in such algorithms. It continues with a review of image descriptors from a novel approach, considering them in parallel with final applications, which opens up numerous analytical angles. Finally the literature review makes it possible to assess which descriptors are the most representative in road environments.Several databases containing images and associated meteorological data (e.g. rain, fog) are then presented. These databases are completely original because image acquisition and weather condition measurement are at the same location and the same time. Moreover, calibrated meteorological sensors are used. Each database contains different scenes (e.g. black and white target, pedestrian) and different kind of weather (i.e. rain, fog, daytime, night-time). Databases contain digitally simulated, artificial and natural weather conditions.Seven of the most representative image descriptors in road context are then selected and their robustness in rainy conditions is evaluated. Image descriptors based on pixel intensity and those that use vertical edges are sensitive to rainy conditions. Conversely, the Harris feature and features that combine different edge orientations remain robust for rainfall rates ranging in 0 – 30 mm/h. The robustness of image features in rainy conditions decreases as the rainfall rate increases. Finally, the image descriptors most sensitive to rain have potential for use in a camera-based rain classification application.The image descriptor behaviour in adverse weather conditions is not necessarily related to the associated final function one. Thus, two pedestrian detectors were assessed in degraded weather conditions (rain, fog, daytime, night-time). Night-time and fog are the conditions that have the greatest impact on pedestrian detection. The methodology developed and associated database could be reused to assess others final functions (e.g. vehicle detection, traffic sign detection).In road environments, real-time knowledge of local weather conditions is an essential prerequisite for addressing the twin challenges of enhancing road safety and streamlining travel. Currently, the only mean of quantifying weather conditions along a road network requires the installation of meteorological stations. Such stations are costly and must be maintained; however, large numbers of cameras are already installed on the roadside. A new method that uses road traffic cameras to detect weather conditions has therefore been proposed. This method uses a combination of a neural network and image descriptors applied to image patches. It addresses a clearly defined set of constraints relating to the ability to operate in real-time and to classify the full spectrum of meteorological conditions and grades them according to their intensity. The method differentiates between normal daytime, rain, fog and normal night-time weather conditions. After several optimisation steps, the proposed method obtains better results than the ones reported in the literature for comparable algorithms
APA, Harvard, Vancouver, ISO, and other styles
36

Rigollier, Christelle. "Vers un accès à une climatologie du rayonnement solaire : estimation de l'irradiation globale à partir d'images satellitales." Phd thesis, Université Nice Sophia Antipolis, 2000. http://tel.archives-ouvertes.fr/tel-00955264.

Full text
Abstract:
Le Soleil est la source d'énergie essentielle de notre planète, et la connaissance du rayonnement solaire devient nécessaire dans un nombre croissant de domaines, où les utilisateurs font face à un manque de données. Les mesures disponibles dans le réseau météorologique mondial fournissent des valeurs du rayonnement solaire reçu au sol ; cependant elles sont ponctuelles et dispersées. Il est alors nécessaire de recourir à des interpolations ou extrapolations, techniques d'autant moins précises que la distance à la station augmente. Dans ce contexte, nous proposons d'une part une méthode d'estimation du rayonnement solaire reçu au sol à partir d'images satellitales, et d'autre part des outils pour permettre à l'utilisateur d'accéder de manière plus efficace à l'information sur le rayonnement solaire par l'intermédiaire d'Internet. Parmi les méthodes existantes, la méthode Heliosat a été choisie au regard des critères de qualité, de robustesse, et d'exploitation, qualités qui doivent être renforcées dans l'objectif de créer une climatologie du rayonnement solaire. Nous proposons donc d'améliorer la méthode Heliosat en 1) introduisant une méthode automatique d'étalonnage, 2) utilisant un modèle ciel clair plus précis, 3) établissant une nouvelle relation entre les indices de ciel clair et d'ennuagement, 4) évaluant l'albédo des différentes surfaces à partir des images étalonnées. Forte de ces améliorations, la méthode " Heliosat-2 " constitue alors une base solide pour l'élaboration d'une base de données climatiques du rayonnement solaire, devant être disséminées au travers d'Internet.
APA, Harvard, Vancouver, ISO, and other styles
37

Pellet, Victor. "Télédétection satellite du cycle de l'eau. De l'optimisation du traitement des observations à l'intégration des produits restitués." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS277.

Full text
Abstract:
L'observation satellite offre l'opportunité unique d'une couverture globale et d'un suivi temporel continu en météorologie et climatologie. On rencontre toutefois de nombreuses difficultés dans leur exploitation, ce qui requiert l'utilisation de techniques d'optimisation dans les diverses étapes de leur traitement. On traitera dans cette thèse deux questions : (1) au niveau du traitement des données satellite, en amont de la chaîne de restitution, et (2) en aval, pour l'intégration des multiples produits satellites disponibles. On propose ainsi une nouvelle approche de compression/sélection de canaux (les « Bottlenecks Channels ») pour réduire la dimension des données hyper-spectrales (dans l'infrarouge avec l'instrument IASI et dans les microondes pour un nouveau concept de sondeur). On développe également un nouveau schéma d'intégration de multiples produits satellites pour l'étude du cycle de l'eau (surface, océan et atmosphère). Cette approche d'intégration permet de rendre plus cohérentes les composantes du cycle de l'eau. Elle est présentée ici dans le contexte du cycle de l'eau méditerranéen<br>Satellite observation offers the unique opportunity for global coverage and continuous temporal monitoring in meteorology and climatology. However, there are many difficulties in their exploitation, which requires the use of optimization techniques at the different steps of their processing. This thesis will deal with two questions: (1) the processing of satellite data before the restitution, and (2) the integration of the multiple satellite products available. A new approach for channel compression/selection (Bottlenecks Channels) is proposed to reduce the dimension of hyperspectral data (in the infrared with the IASI instrument and in microwaves for a new sounder concept). A new scheme is also developed to integrate multiple satellite products for the study of the water cycle (surface, ocean and atmosphere). This integration approach makes the components of the water cycle more coherent to each other. It is presented here in the context of the Mediterranean water cycle
APA, Harvard, Vancouver, ISO, and other styles
38

Lamouroux, Julien. "Erreurs de prévision d'un modèle océanique barotrope du Golfe de Gascogne en réponse aux incertitudes sur les forçages atmosphériques : caractérisation et utilisation dans un schéma d'assimilation de données à ordre réduit." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00107174.

Full text
Abstract:
Nous avons caractérisé et estimé les erreurs du modèle océanique barotrope MOG2D en réponse aux incertitudes sur les forçages météorologiques à haute fréquence (pression et vent ARPEGE), dans le Golfe de Gascogne et la Manche. Les covariances d'erreur sont obtenues par méthode d'ensemble sous forme d'EOFs d'ensemble multivariés. En Manche, les erreurs océaniques sont fortement liées aux erreurs de vent, tandis que sur le Golfe de Gascogne elles sont surtout contrôlées par les incertitudes sur la pression. Puis ces statistiques d'erreur sont utilisées dans le système d'assimilation de données à ordre réduit SEQUOIA/MOG2D pour évaluer le contrôle du modèle via des expériences jumelles, dans différentes configurations du système et dans plusieurs scenarii de réseau d'observation in situ et altimétriques. Moyennant une correction du forçage atmosphérique, les réseaux marégraphiques permettent un contrôle efficace de l'erreur modèle et apparaissent complémentaires des réseaux de radars HF.
APA, Harvard, Vancouver, ISO, and other styles
39

Mourre, Baptiste. "Etude de configuration d'une constellation de satellites altimétriques pour l'observation de la dynamique côtière." Toulouse 3, 2004. http://www.theses.fr/2004TOU30212.

Full text
Abstract:
Cette thèse a pour objectif d'estimer l'apport des nouveaux projets altimétriques (altimètre à large fauchée WSOA, projets de constellations de satellites) pour l'observation des processus océaniques sur les plateaux continentaux. L'approche adoptée est basée sur la modélisation numérique et l'assimilation de données. Le problème revient alors à estimer la capacité des nouveaux scénarios d'observation à contrôler les erreurs des modèles hydrodynamiques dans ces régions. L'étude est réalisée à l'aide du modèle barotrope MOG2D implémenté sur le plateau continental européen. Elle se concentre sur la réponse haute fréquence de l'océan au forçage météorologique (échelles temporelles de quelques heures à quelques jours). Les covariances d'erreur du modèle due aux incertitudes bathymétriques sont par ailleurs plus spécifiquement explorées, au moyen d'une méthode d'ensemble. Cette approche permet de révéler la forte variabilité de ces covariances, non seulement selon les régions, mais aussi localement suivant le régime dynamique du modèle. Dans le cadre d'OSSEs (Observing-Systems Simulation Experiments), des expériences jumelles multiples sont ensuite menées sur la mer du Nord, s'appuyant sur un filtre de Kalman d'ensemble pour l'assimilation séquentielle des observations. La réduction des variances d'ensemble par l'assimilation fournit le diagnostic utile à l'estimation de la performance des différents scénarios d'observation quant à la correction de l'erreur statistique du modèle. Ces expériences permettent notamment l'évaluation, dans le contexte particulier des processus océaniques haute fréquence modélisés ici, de l'apport d'un altimètre WSOA, de celui de différentes constellations de satellites, ou encore de l'impact des observations marégraphiques<br>The main objective of this work is to evaluate the contribution of future altimeter systems (Wide Swath Ocean Altimeter, satellite constellations) for the observation of ocean dynamics over continental shelves. The approach is based on numerical modeling and data assimilation, so that the problem comes to the estimation of the capability of new observing scenarios to control model errors in these regions. The model used in this work is the barotropic, finite-element MOG2D model, implemented over the entire European continental shelf. Moreover, the focus is on the specific high-frequency response of the ocean to meteorological forcing (wind and pressure), with temporal scales ranging from a few hours to a few days. Special attention is paid to properly specify model error statistics, which are required for assimilation experiments. The model error subspace due to uncertainties in bathymetry is more specifically explored via the use of an ensemble method. Associated model error covariances are shown to be neither homogeneous over shelves, nor isotropic when approaching the coast. They are not even stationary, since they are very dependent on the meteorological forcing. An ensemble Kalman filter assimilation scheme is then implemented to assimilate sea level data in the model. Multiple twin experiments are performed to estimate the capabiliy of different observing scenarios to reduce model errors (in the framework of Observing-Systems Simulation Experiments, OSSEs). The diagnostic is based on the reduction of the ensemble spread thanks to the assimilation. .
APA, Harvard, Vancouver, ISO, and other styles
40

Stavropulos-Laffaille, Xenia. "Pour une analyse des impacts du changement climatique sur l’hydrologie urbaine : Modélisation hydro-microclimatique de deux bassins versants expérimentaux de l'agglomération nantaise." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0007/document.

Full text
Abstract:
L'adaptation des villes au changement climatique constitue un enjeu majeur des politiques d’aménagement. Promouvoir l'intégration des infrastructures vertes et bleues dans l'environnement urbain entant que stratégies d'adaptation implique ainsi de comprendre leurs impacts sur les bilans en eau et en énergie. Un modèle hydro microclimatique,TEB-Hydro, a préalablement été développé en tenant compte du couplage détaillé des deux bilans. Cependant, des études récentes ont mis en cause la représentation des processus hydrologiques en sous-sol urbain. Ainsi, ce travail de thèse consiste à améliorer la composante hydrologique du modèle (drainage de l’eau du sol par les réseaux, écoulements souterrains vertical et latéral). Après calage,une évaluation hydrologique est réalisée sur deux bassins versants urbains de Nantes. Dans les deux cas, le calage fait ressortir la même configuration de simulation, malgré des morphologies différentes, ce qui est encourageant pour des applications du modèle en projection climatique. L’évaluation hydrologique met en avant les paramètres clés du modèle et démontre une amélioration du processus de l’infiltration de l’eau du sol dans le réseau d’assainissement. L’évaluation hydro-énergétique du modèle démontre une représentation satisfaisante des flux de chaleur sensible et latente. Le fonctionnement du modèle vis-à-vis de l’évapotranspiration est discuté via le prisme de la végétation et de la morphologie urbaine. Une première application de TEB-Hydro en contexte de changement climatique permet d’évaluer une méthode statistique existante de désagrégation et soulève la problématique de la représentation de la dynamique pluviométrique dans ce contexte<br>Adapting growing cities to climate change is a major challenge in planning policy. Promoting the integration of green and blue infrastructures in the urban environment as adaptation strategies implies understanding their impacts on both the urban hydrological and energy balance. A hydro-microclimate model,TEB-Hydro, was developed previously, taking into account detailed coupling between the two balances. However, first model evaluation studies on different urban catchments have questioned the representation of the hydrological processes in the urban subsoil. This PhD work consists of performing new developments on the models hydrological component (soil-water drainage by sewer networks, vertical and lateral subsoil flows). After calibration a hydrological evaluation is performed on two urban catchments in Nantes. In both cases, the calibration brings out the same simulation configuration, despite different catchment related properties. This is encouraging for applying the model on climate projection. The hydrological evaluation highlights the model key parameters as well as shows improvements concerning sewer soilwater infiltration processes. In addition, a hydro-energetic evaluation shows a satisfactory representation of sensible and latent heat fluxes. The model operation vis-à vis evapotranspiration processes is discussed through vegetation and urban morphology. A first application of TEB-Hydro in climate change context enables evaluating an existing statistical disaggregation method as well as raises the problematic in representing rainfall dynamics for climate projection purposes
APA, Harvard, Vancouver, ISO, and other styles
41

Sassi, Mohamed Zied. "Apport de la synergie des observations satellitaires pour la définition de la température de surface en prévision numérique." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30240.

Full text
Abstract:
La modélisation des échanges radiatifs surface-atmosphère est cruciale en prévision numérique du temps. La température de surface est un paramètre clé dans cette modélisation. Sur mer, la température de surface varie sur des grandes échelles spatiales (environ 100 km) et plus lentement que sur continents, au-dessus desquels sa variabilité est beaucoup plus importante spatialement et plus rapide, ce qui rend son observation ainsi que sa prévision plus difficiles. L'évolution des techniques d'observation météorologique, notamment les satellites météorologiques, a permis de mieux observer la température de surface sur continents (LST). Toutefois, la LST n'est pas directement observée par les instruments satellitaires mais elle est restituée à partir de mesures de rayonnement au sommet de l'atmosphère. Or la LST est importante pour exploiter pleinement les luminances satellitaires dans les modèles de prévision numérique du temps. À Météo-France, l'approche adoptée pour certains instruments infrarouges consiste à utiliser, pour chaque instrument séparément, un canal fenêtre pour restituer la LST en ciel clair qui est ensuite utilisé pour l'assimilation des autres canaux de ce même instrument. Cependant, ces LST ne sont pas assimilées dans le système d'analyse de surface du modèle AROME. Ce travail de thèse consiste à étudier l'accord entre les LST restituées à partir de différents capteurs puis à évaluer l'impact de leur assimilation dans le modèle AROME [Seity et al., 2011]. Des comparaisons entre les LST restituées à partir du capteur infrarouge SEVIRI (Spinning Enhanced Visible and Infrared Imager) [Aminou, 2002] et des observations locales aux stations de Toulouse Météopole-Flux [Maurel, 2019] et d'Evora [Kabsch et al., 2008] montrent un bon accord global du cycle diurne, en particulier pendant les mois d'été. En ce qui concerne les comparaisons entre les LST restituées à partir des capteurs infrarouges SEVIRI et IASI, les différences moyennes sont de l'ordre du degré, avec des écarts-types plus faibles de nuit que de jour. Concernant les capteurs micro-ondes, les comparaisons entre les LST restituées à partir de SEVIRI et les LST de AMSU-A et MHS montrent un moins bon accord qu'entre les capteurs infrarouges, avec des écarts-types de l'ordre de 4K. En effet, les canaux fenêtre des instruments micro-ondes sont sensibles aux premiers centimètres du sol, contrairement aux capteurs infrarouges qui sont sensibles uniquement à la couche superficielle. Par la suite, des simulations de températures de brillance de plusieurs instruments utilisant des températures de surface différentes ont permis d'évaluer la pertinence des LST restituées à partir d'un capteur pour l'assimilation de canaux d'autres instruments. Ainsi, pour les capteurs infrarouges, l'utilisation d'une LST restituée à partir de SEVIRI a donné une meilleure simulation des températures de brillance de IASI par rapport à l'utilisation de la température de surface prévue par le modèle AROME. Une meilleure simulation des températures de brillance SEVIRI a été également obtenue avec la LST IASI qu'avec la température de surface prévue par AROME.[...]<br>Modeling surface-atmosphere radiative exchanges is crucial in numerical weather prediction. The surface temperature is a key parameter in this modelization. Above sea, the surface temperature varies on large space and time scales, unlike the continents above which its variability is much larger. This makes its observation and prediction more difficult. Developments in meteorological observation techniques, in particular meteorological satellites, allow to better observe the surface temperature on continents (LST). However, the LST is not directly observed by satellite instruments but it is retrieved from radiation measurements at the top of the atmosphere. However, a good LST accuracy is important for the assimilation of satellite luminances in numerical weather prediction models. At Météo-France, the adopted approach consists in using a window channel to retrieve the LST in clear sky conditions, which is then used to assimilate the other satellite channels of the infrared instruments in the model. However, these LSTs are not assimilated in the surface analysis system of the AROME model [Seity et al., 2011]. This phD work consists in studying the agreement between the LSTs retrieved from different sensors and then in evaluating the impact of their assimilation in the AROME model. Comparisons between the LSTs retrieved from SEVIRI [Aminou, 2002] and local observations from infrared sensor at the Toulouse Météopole-Flux [Maurel, 2019] and Evora [Kabsch et al., 2008] stations show a good overall agreement of the diurnal cycle description, especially during the summer months. Regarding the comparisons between the LSTs retrieved from the infrared sensors SEVIRI and IASI, the average differences are around one degree, with smaller standard deviations of differences at night-time than during daytime. Regarding microwave sensors, comparisons between LSTs retrieved from SEVIRI and LSTs from AMSU-A and MHS show less agreement than between infrared sensors, with standard deviations of the order of 4K. In fact, the window channels of microwave instruments are sensitive to the first few centimeters of the ground, unlike infrared sensors which are sensitive only to the surface skin layer. Subsequently, brightness temperature simulations of several sensors using different surface temperatures are used to assess the suitability of the LSTs retrieved from one sensor for the assimilation of channels from other instruments. For the infrared sensors, the use of an ST retrieved from SEVIRI gave a better simulation of the brightness temperatures of IASI compared to the use of the surface temperature from AROME model forecasts, and a better simulation of SEVIRI brightness temperatures was also obtained with the IASI LST than with the surface temperature from AROME forecasts. Following this preparatory study, we set up an assimilation experiment of the LSTs retrieved from SEVIRI instrument in the AROME NWP model. The assimilation of SEVIRI LSTs slightly improve the assimilation of the satellite radiances of different sensors in the atmospheric model on most analysis networks. [...]
APA, Harvard, Vancouver, ISO, and other styles
42

Tourasse, Guillaume. "Mesure et Analyse Statistique Tout Temps du Spectre du Rayonnement Solaire." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSET014/document.

Full text
Abstract:
Ce document présente la mise en place d’un système de mesure des éclairements énergétiques spectraux solaires pour tout type de temps, sur 4 plans. Les 4 spectromètres mesurent au total 900 spectres/min et produisent chacun un spectre/min moyen et son écart type. Entre 2014 et 2015, 700 000 spectres ont été enregistrés sur un domaine compris entre 400 et 1000 nm avec un pas ≤1 nm. Un échantillon de 145 000 spectres représentatifs du climat lyonnais a été sélectionné pour une analyse statistique. Pour ce faire, l’échantillon a été réduit par partitionnement à 1175 spectres. Son domaine spectral a été étendu de 280 à 1500 nm à l’aide du RTM SMARTS. Une ACP de cet échantillon extrapolé a permis d’en réduire la description à 3 composantes et ainsi de réviser le modèle des illuminants D de la CIE. Enfin, la relation entre composition spectrale et paramètres environnementaux ou colorimétriques ouvre une voie vers des modèles statistiques de génération de spectres du rayonnement solaire<br>This manuscript presents the design and setup of an all-weather spectral irradiance measurement system on 4 planes. The 4 spectrometers measure a total of 900 spectra/min to produce every minute, a mean spectral irradiance and its standard deviation. Between 2014 and 2015, this system recorded 700,000 spectra, for wavelengths ranging between 400 and 1,000 nm with a step ≤1 nm. A sample of 145,000 spectra representative of the Lyon climate was selected for statistical analysis. For this purpose, the sample was reduced in size by partitioning it in 1,175 spectra. Its spectral domain was extended to 280-1,500 nm by extrapolating the spectra with curve fitting using the SMARTS2 RTM. A PCA of the extrapolated sample reduced its description to only 3 components; hence, allowing a revision of the CIE’s illuminant D series. Finally, the relation between spectral power distribution and environmental or colorimetric parameters opens a way towards statistical models for generating solar spectra
APA, Harvard, Vancouver, ISO, and other styles
43

Lupu, Cristina. "Étude sur l'observabilité de l'atmosphère et l'impact des observations sur les prévisions météorologiques." Thèse, 2010. http://www.archipel.uqam.ca/3648/1/D1966.pdf.

Full text
Abstract:
L'assimilation de données est une composante essentielle du système de prévision numérique du temps et consiste à trouver un état de l'atmosphère, l'analyse, qui est compatible avec les différentes sources d'observations, la dynamique de l'atmosphère et un état antérieur du modèle. Dans ce processus, il est important de bien caractériser l'erreur associée à chaque source d'information (observations, ébauche) afin de mieux décrire les conditions initiales. La matrice de covariance des erreurs de prévisions joue un rôle clé dans le processus d'assimilation de données car elle détermine la nature de la correction apportée par l'analyse. Cette matrice étant trop grande pour être représentée explicitement, elle est modélisée sous la forme d'une suite d'opérateurs relativement simples. Les modèles de covariance d'erreurs de prévisions utilisées dans un 3D-Var sont généralement stationnaires et ne considèrent pas des variations dues à la nature de l'écoulement. En présence d'instabilité, une petite erreur dans les conditions initiales connaîtra une croissance rapide. Pour contrôler cette croissance d'erreur à courte échéance, il est nécessaire d'apporter des corrections à l'analyse dans des régions localisées selon une structure spatiale très particulière. L'assimilation adaptative 3D-Var considère une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a posteriori et a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans le cadre de cette thèse, des fonctions de sensibilité sont introduites comme fonctions de structure dans l'assimilation 3D-Var. La définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. L'observabilité des fonctions de structure par les observations est tout d'abord présentée et analysée dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduite dans le 3D-Var d'Environnement Canada. L'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. Les résultats montrent que si le rapport entre l'amplitude du signal et l'erreur d'observation est très faible, les observations ne sont pas en mesure de détecter les instabilités atmosphériques qui peuvent croître très rapidement. Dans cette perspective, l'assimilation pourra seulement extraire l'information contenue dans les structures atmosphériques déjà évoluées. Dans un deuxième temps, nous présentons une nouvelle méthode permettant d'estimer l'impact des observations dans les analyses 3D/4D-Var basé sur le Degrees of freedom for signal. Le contenu en informations des observations est calculé en employant les statistiques a posteriori, à partir des écarts des observations à l'ébauche et à l'analyse. Les résultats montrent que le DFS estimé en utilisant les statistiques a posteriori est identique avec celui obtenu à partir des statistiques a priori. Ce diagnostic permet de comparer l'importance de différents types d'observations pour les expériences d'assimilation 3D et 4D-Var incluant toutes les observations assimilées opérationnellement. En particulier, cette étude s'intéresse à l'évaluation du réseau canadien d'observations et il est appliqué aux Observing System Experiments (OSEs) effectués à Environnement Canada pour les mois de janvier et février 2007. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Assimilation de données, Dépendance à l'écoulement, 3D-Var, DFS, OSEs.
APA, Harvard, Vancouver, ISO, and other styles
44

Lupu, Cristina. "Impact d'un modèle de covariance d'erreur de prévision basé sur les fonctions de sensibilité dans un 3D-VAR." Mémoire, 2006. http://www.archipel.uqam.ca/1663/1/M9190.pdf.

Full text
Abstract:
Les fonctions de sensibilité dites a posteriori permettent de caractériser des corrections aux conditions initiales qui peuvent réduire significativement l'erreur de prévision à une échéance donnée (typiquement 24 ou 48 heures). L'erreur est ici définie par l'écart à une analyse de vérification et la fonction de sensibilité ne peut donc être calculée qu'a posteriori. De telles structures dépendent de la nature de l'écoulement et ne sont pas prises en compte dans le modèle de covariance d'erreur de prévision stationnaire utilisé dans un système d'assimilation de données variationnelle 3D (3D-Var) comme celui du Centre Météorologique Canadien (CMC). Pour remédier à ceci, Hello et Bouttier (2001) ont introduit une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans ce cas, l'amplitude de cette correction est déterminée en s'ajustant aux observations disponibles. Dans ce projet, une formulation différente est proposée et comparée à celle de Hello et Bouttier (2001). L'algorithme, appelé 3D-Var adapté, est tout d'abord présenté et analysé dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduit dans le 3D-Var du CMC. L'impact du changement apporté a été étudié en utilisant les fonctions de sensibilité a posteriori associées à une prévision manquée sur la côte est de l'Amérique du Nord. En mesurant globalement l'erreur de prévision, la fonction de sensibilité indique qu'il est nécessaire d'apporter des corrections à l'analyse sur différentes régions du globe. Pour le 3D-Var adapté, ceci conduit à une fonction de structure non localisée et l'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. En comparant aux prévisions issues du 3D-Var opérationnel ou de l'analyse de sensibilité, la prévision issue de l'analyse du 3D-Var adapté est améliorée par rapport à celle du 3D-Var conventionel mais nettement moins que celle issue de l'analyse de sensibilité. Par contre, le 3D-Var adapté améliore l'ajustement de l'analyse aux observations alors que l'analyse de sensibilité le dégrade. En localisant la mesure de l'erreur de prévision sur la région correspondant au système météorologique du cas étudié sur la côte est de l'Amérique du Nord, la fonction de sensibilité est maintenant localisée sur une région mieux délimitée (dite région sensible). Il est également possible de varier la fenêtre temporelle utilisée pour définir la fonction de sensibilité. L'impact sur la qualité de l'analyse et des prévisions résultantes a été étudié autant pour l'analyse de sensibilité que pour le 3D-Var adapté. Les résultats montrent que la définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. Les résultats obtenus montrent que l'utilisation des fonctions de sensibilité comme fonctions de structures n'est pas immédiate. Bien que limitées à un seul cas, nos expériences indiquent certaines pistes intéressantes pour définir des fonctions de sensibilité pouvant être utilisées comme fonctions de structures. Ces idées pourraient s'appliquer également aux fonctions de sensibilité a priori.
APA, Harvard, Vancouver, ISO, and other styles
45

Chaix, Christophe. "Climatologie hivernale des versants alpins (Savoie) : types de temps, températures et vents.Analyse des données météorologiques des domaines skiables." Phd thesis, 2007. http://tel.archives-ouvertes.fr/tel-00193112.

Full text
Abstract:
En zone montagneuse, la variabilité des paramètres climatiques, notamment à l'échelle fine, reste mal connue. En effet, les conditions climatiques difficiles rencontrées dans la montagne hivernale ont toujours empêché une instrumentation systématique de la mesure des températures, de l'humidité relative ou encore du vent. Mais depuis l'avènement de la production de neige de culture dans les stations de sport d'hiver, on peut se servir des données météorologiques utilisées dans la gestion des canons à neige pour suivre le comportement de ces paramètres climatiques, grâce à un réseau très dense de sondes et d'anémomètres.<br />Cette thèse vise à exploiter les données obtenues grâce aux potentialités de ce nouveau réseau de mesure au travers des sites d'étude choisis, dans les Alpes françaises en Savoie (Les Menuires, Val Thorens, Aussois et Valloire).<br />Une analyse exploratoire et statistique des données permet de répondre en partie aux problématiques récurrentes de la climatologie hivernale de montagne, concernant notamment l'influence des échelles climatiques supérieures et du relief sur la variabilité spatio-temporelle des températures et du vent à échelle fine.<br />Fondée au préalable sur une classification des types de temps en Savoie, l'étude porte principalement sur le comportement moyen ou horaire des températures et leurs inversions, les gradients thermiques et le rôle des facteurs topographiques et des échelles climatiques sur la variation des paramètres locaux.<br />Un nouveau modèle de l'évolution des brises thermiques hivernales est proposé, avec la découverte de mécanismes encore non identifiés sur les brises catabatiques diurnes. Enfin, nous proposerons des applications concrètes pour la gestion des domaines skiables et de la neige de culture.
APA, Harvard, Vancouver, ISO, and other styles
46

Larouche, Olivier. "Reconstruction et analyse de sensibilité climatique du bilan de masse du glacier Saskatchewan, Canada." Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9733/1/eprint9733.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!