To see the other types of publications on this topic, follow the link: Modèle de prévision météorologique numérique.

Dissertations / Theses on the topic 'Modèle de prévision météorologique numérique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Modèle de prévision météorologique numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Coopmann, Olivier. "Vers une meilleure assimilation des observations satellitaires infrarouges par le couplage des modèles météorologique et chimique." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30303.

Full text
Abstract:
Le sondeur infrarouge hyperspectral IASI (Interféromètre Atmosphérique de Sondage Infrarouge) est l'instrument qui fournit le plus d'observations satellitaires au modèle de Prévision Numérique du Temps (PNT) ARPEGE (Action de Recherche Petite Échelle Grande Échelle) à Météo-France. Ce capteur a été développé conjointement entre le CNES (Centre National d'Études Spatiales) et EUMETSAT (European Organisation for the Exploitation of Meteorological Satellites) et est embarqué à bord des satellites défilants Metop-A, B et C. L'assimilation de ces observations requiert l'utilisation d'un Modèle de Transfert Radiatif (MTR) qui s'appelle RTTOV à Météo-France. Ce dernier utilise une connaissance a priori de l'état thermodynamique et chimique de l'atmosphère le plus probable pour simuler les observations IASI. À Météo-France, les champs d'ébauche thermodynamiques proviennent d'une prévision à courte échéance fournie par ARPEGE. Les ébauches de la composition chimique de l'atmosphère sont issues d'un unique profil vertical de référence pour chaque espèce chimique fourni par RTTOV. Cette approximation a un impact important sur la qualité des simulations et l'utilisation des observations satellitaires infrarouges pour la PNT. Les Modèles de Chimie Transport (MCT) sont capables de fournir des prévisions de la composition chimique de l'atmosphère. À Météo-France, ce MCT s'appelle MOCAGE. Ce travail de thèse propose une méthode permettant une meilleure assimilation des observations satellitaires infrarouges par un couplage des modèles météorologique et chimique. La première partie du travail consiste à évaluer la sensibilité des observations infrarouges à la chimie atmosphérique. Pour cela nous avons participé à la campagne de mesure APOGEE (Atmospheric Profiles Of GreenhousE gasEs) qui nous a permis de mesurer des profils in situ de CO2, CH4 et O3. Ces données ont été utilisées à la fois pour valider la qualité de nos simulations et comme données de vérification pour évaluer les prévisions de composition chimique atmosphérique issus de MCT. Nous avons par la suite encadré deux stagiaires de Master 1 pour réaliser une climatologie évolutive de CO2 afin d'améliorer l'utilisation des observations satellitaires infrarouges. De ces études, il ressort que la qualité des simulations dépend de la précision de l'ébauche chimique utilisée et que le constituant chimique ayant l'impact le plus important sur les simulations est l'ozone. La suite du travail de thèse s'est donc articulée autour de l'ozone. Une première étape a consisté à préparer l'assimilation de canaux IASI sensibles à l'ozone. [...]
The Infrared Atmospheric Sounding Interferometer (IASI) is the instrument that provides the most satellite observations to the ARPEGE (Action de Recherche Petite Échelle Grande Scale) Numerical Weather Prediction (NWP) model at Météo-France. This sensor was developed jointly by CNES (Centre National d'Études Spatiales) and EUMETSAT (European Organisation for the Exploitation of Meteorological Satellites) and is carried on board the Metop-A, B and C polar orbiting satellites. The assimilation of these observations requires the use of a Radiative Transfer Model (RTM) called RTTOV at Météo-France. The latter uses an a priori knowledge of the most likely thermodynamic and chemical state of the atmosphere to simulate IASI observations. At Meteo-France, the background thermodynamic fields come from a short-term forecast provided by ARPEGE but the information on the chemical composition of the atmosphere comes from a single vertical reference profile for each chemical species, provided by RTTOV. However, this approximation has a significant impact on the quality of simulations and the use of infrared satellite observations for NWP. Chemistry Transport Models (CTM) are able to provide forecasts of the chemical composition of the atmosphere. At Météo-France, this CTM is called MOCAGE. This thesis therefore proposes a method toward a better assimilation of infrared satellite observations by coupling meteorological and chemical models. The first part of the work was to evaluate the sensitivity of infrared observations to some atmospheric compounds. To do so, we participated in the APOGEE (Atmospheric Profiles Of GreenhousE gases) measurement campaign, which enabled us to measure in situ profiles of CO2, CH4 and O3. These data were used both to validate the quality of our simulations and as verification data to assess atmospheric chemical composition derived from CTM. We then supervised two Master 1 trainees to carry out an evolving climatology of CO2 in order to improve the use of infrared satellite observations. From these studies, it appears that the quality of the simulations depends on the accuracy of the chemical information used and the chemical component with the greatest impact on the simulations is ozone. Thus, the rest of the thesis work was therefore focused on ozone. A first step was to prepare the assimilation of ozone-sensitive IASI channels. This work has shown both that the use of realistic ozone information from a CTM can better simulate ozone-sensitive observations and provide additional information, simultaneously improving temperature, humidity and ozone analyses [Coopmann et al., 2018]. [...]
APA, Harvard, Vancouver, ISO, and other styles
2

Yessad, Karim. "Effets de résolution dans le modèle PERIDOT : analyse diagnostique par divergences de flux." Toulouse 3, 1994. http://www.theses.fr/1994TOU30120.

Full text
Abstract:
Les hauteurs de precipitations prevues par le modele a domaine limite peridot anciennement operationnel a meteo-france dependent trop de la taille de maille. Pour etudier ce probleme on a developpe des diagnostics de divergences de flux, pour evaluer la contribution des petites et moyennes echelles a l'evolution temporelle d'une moyenne de grande echelle de l'humidite specifique et de l'entropie. Cette contribution depend elle-meme de la taille de maille. La premiere raison semble venir de la dynamique de moyenne echelle: sa contribution diminue lorsqu'on utilise le meme domaine de prevision pour toutes tailles de maille. Le resultat le plus important est ici une contribution du forcage par les conditions aux limites laterales externes: le forcage de l'humidite specifique genere un desequilibre entre le champ d'humidite et les autres champs a toutes echeances. La consequence est un phenomene de type spin-up appele ici spin-up permanent, caracterise par des valeurs irrealistes et fortement dependantes de la resolution dans les champs de convection et de diffusion verticale. Il se produit essentiellement au-dessus de mers chaudes et pres des bords, ne se propage pas vers le centre du domaine et peut-etre generalement supprime quand on utilise des conditions aux limites laterales ouvertes pour l'humidite. La part restante de la dependance de taille de maille est principalement liee aux parametrisations des precipitations convectives et stratiformes. L'utilisation d'un schema unifie decrivant les deux types de precipitations la reduit dans une situation convective idealisee mais n'apporte aucune amelioration dans une situation reelle ou coexistent les deux types de precipitations. On a acheve ce travail par une etude de transportabilite des diagnostics sur les modeles spectraux arpege et aladin, et par quelques experiences de sensibilite des precipitations a la resolution dans le modele arpege maintenant operationnel a meteo-france
APA, Harvard, Vancouver, ISO, and other styles
3

Ducrocq, Véronique. "Etude de l'énergétique de bandes précipitantes simulées à l'aide du modèle PERIDOT." Toulouse 3, 1994. http://www.theses.fr/1994TOU30205.

Full text
Abstract:
Les precipitations et nuages des perturbations des latitudes moyennes sont frequemment organises en bandes de meso-echelle. Les mecanismes de formation et d'entretien de ces bandes sont encore inconnus dans de nombreux cas. L'objectif de la these a ete d'avancer dans la comprehension des bandes de meso-echelle a l'aide de simulations du modele numerique hydrostatique peridot. Pour repondre a cet objectif, une methode d'etude des structures en bande a ete developpee: des diagnostics ont ete concus pour etudier l'energetique des circulations a l'echelle de la structure en bande. Ces diagnostics ont ete testes et valides sur un cas pour lequel le comportement energetique des circulations simulees etait connu: ils ont ete valides en les appliquant a des circulations d'instabilite symetrique. Les simulations de cas idealises d'instabilite symetrique nous ont permis egalement d'etudier l'evolution non-lineaire des circulations. Les diagnostics energetiques ont ete appliques a deux phenomenes reels tres differents l'un de l'autre: un cas de large bande de front froid et un cas de ligne de grains. Dans le cas de la large bande de front froid, l'application des diagnostics energetiques n'a pas permis d'identifier un mecanisme precis de formation de la bande. La raison principale est l'absence de connaissance du comportement theorique de l'energetique des circulations resultant de l'interaction entre l'instabilite symetrique et le forcage frontogenetique. Sur le cas de la ligne de grains, l'application des diagnostics energetiques a constitue un apport: le courant de densite a ete identifie comme l'element moteur. Au cours de l'etude de ces deux cas reels, les elements necessaires a l'obtention de simulations de qualite des phenomenes ont ete mis en evidence
APA, Harvard, Vancouver, ISO, and other styles
4

Fayon, Gaëtan. "Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30284/document.

Full text
Abstract:
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant
Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now
APA, Harvard, Vancouver, ISO, and other styles
5

Diagne, Hadja Maïmouna. "Gestion intelligente du réseau électrique réunionnais. Prévision de la ressource solaire en milieu insulaire." Thesis, La Réunion, 2015. http://www.theses.fr/2015LARE0014.

Full text
Abstract:
L'intégration de la production des énergies renouvelables intermittentes dans le mix énergétique est aujourd'hui limitée à un seuil de 30 % de la puissance totale produite. Cette mesure vise à assurer la sécurité de l'alimentation électrique des réseaux insulaires en France. La levée de ce verrou technique ne pourra se faire qu'en apportant des solutions au caractère intermittent des sources d'énergies éolienne et photovoltaïque. Les difficultés énergétiques auxquelles sont confrontés aujourd'hui les milieux insulaires préfigurent celles que rencontreront la planète à plus ou moins long terme. Ces territoires sont des laboratoires uniques pour éprouver les nouvelles technologies de stockage, de gestion et de prévision de l'énergie. La contribution de ce travail de thèse se focalise sur la prévision du rayonnement solaire global à différents horizons de temps car la puissance photovoltaïque produite découle directement de l'intensité du rayonnement solaire global. Dans un premier temps, l'étude bibliographique a permis de classer les modèles de prévision numériques et les modèles de prévision statistiques en fonction de la résolution spatiale et temporelle. Par ailleurs, elle montre que les meilleurs performances sont obtenues avec les modèles hybrides. Dans un deuxième temps, un modèle de prévisions à court terme (J+1) est proposé avec le modèle Weather Research and Forecasting (WRF) et un réseau de neurone bayésien. L'hybridation de ces deux méthodes améliore les performances de prévisions à J+1. Dans un troisième temps, un modèle de prévision à très court terme (t+h) est proposé avec le modèle hybride de Kalman. Cette méthode produit d'une part une prévision énergétique et d'autre part une prévision multi-horizon. La comparaison de la performance de ces modèles avec la méthode de référence dite de persistance montre une amélioration de la qualité de la prévision. Enfin, la combinaison du filtre de Kalman avec le modèle numérique WRF permet une mise en œuvre opérationnelle de la prévision
The integration of intermittent renewable energy in the energy mix is currently limited to a threshold of 30% of the total power being produced. This restriction aims at ensuring the safety of the power input. The elimination of this technical obstacle will be possible with solutions to energy intermittence of wind and solar energy. The energy issues which islands are facing today prefigure global problems in a more or less long term. These territories constitute unique laboratories for testing new technologies of storage, management and forecasting of energy. The contribution of this thesis focuses on the forecasting of global horizontal irradiance at different time horizons. Indeed, the generated PV power stems directly from the intensity of the global horizontal irradiance. First, the review of solar irradiance forecasting methods allows to classify numerical weather models and statistical forecasting methods depending on spatial and temporal resolution. Moreover, it shows that best performance is obtained with hybrid models. Second, a short-term forecast model (day ahead forecast) is developed with the Weather Research and Forecasting model (WRF) and a Bayesian neural network. The hybridization of these methods improves the day ahead forecast performance. Third, a model for forecasting the very short term is developped with the Kalman hybrid model. This method offers on the one hand an energy forecasting and on the other hand a multi-horizon forecast. Comparing the performance of the aforesaid with the reference method, namely the persistence method, shows an improvement of the quality of the forecasts. Combining the Kalman filter with the WRF numerical model allows an operational implementation of the forecast
APA, Harvard, Vancouver, ISO, and other styles
6

Kurzrock, Frederik. "Assimilation de données satellitaires géostationnaires dans des modèles atmosphériques à aire limitée pour la prévision du rayonnement solaire en région tropicale." Thesis, La Réunion, 2019. https://elgebar.univ-reunion.fr/login?url=http://thesesenligne.univ.run/19_13_FKurzrock.pdf.

Full text
Abstract:
La variabilité de l’énergie solaire impose de limiter sa fraction d’injection instantanée dans le réseau électrique. Une amélioration des prévisions de l’ensoleillement conduirait à élever la limite de ce seuil, spécialement dans les zones non-interconnectées comme La Réunion. Une plus haute précision de prévision est particulièrement difficile à atteindre dans le cas des îles tropicales à cause de la convection prononcée et des circulations thermiques complexes au niveau local. Les modèles de prévision numérique du temps à aire limitée permettent de prévoir les processus liés aux nuages et l'éclairement solaire à de hautes résolutions spatio-temporelles, de l’ordre de quelques kilomètres et minutes. Néanmoins, ces modèles parviennent rarement à prévoir précisément l'évolution de la couche nuageuse et ont donc tendance à surestimer l'éclairement solaire. L’affinement des conditions initiales nuageuses des modèles régionaux par l’assimilation d’observations de satellites météorologiques géostationnaires est un moyen efficace pour améliorer les prévisions à court terme. Toutefois, une grande variété d'approches pour l'assimilation des données satellitaires existe et, jusqu'à présent, la recherche s’est concentrée sur les moyennes latitudes. Cette thèse aborde l'assimilation d'observations de satellites géostationnaires avec des modèles à aire limitée dans le sud-ouest de l'Océan Indien. Dans un premier temps, l'état de l'art des approches existantes pour l'assimilation de luminances observées et de propriétés physiques des nuageuse avec les modèles régionaux est dressé. Puis, l'une des approches les plus prometteuses est identifiée et appliquée au sud-ouest de l'Océan Indien. Dans les expériences effectuées, la teneur en eau des nuages est obtenue à partir des produits de propriétés nuageuses SatCORPS de la NASA. Ces observations sont assimilées avec un filtre de Kalman d’ensemble et le modèle Weather Research and Forecasting. Un ensemble de 41 membres et un espacement horizontal des points de grille de 12 km est appliqué avec un intervalle de cyclage de 6 heures pour l'assimilation. Le Data Assimilation Research Testbed et son opérateur d'observations de teneur en eau des nuages sont utilisés pour l'assimilation d'observations dans les phases solide, surfondue, et liquide. L'impact de cette approche d'assimilation sur des prévisions de l'éclairement horizontal global est évalué pour l'été austral 2017/2018 en utilisant des observations de pyranomètres sur l'île de La Réunion. Un effet positif de la méthode appliquée sur les prévisions de l'éclairement est constaté surtout pour les 14 premières heures de prévision. Différents aspects de l'amélioration des prévisions, grâce à l'assimilation de données, sont analysés par le biais d’expériences témoins sans assimilation, d’expériences avec un domaine de grille imbriquée avec un espacement horizontal des points de grille de 4 km et d’une comparaison avec des modèles opérationnels. Les observations quadrillées utilisées étant disponibles à l'échelle mondiale, la méthode offre une approche applicable et évaluable pour d'autres régions du monde
The variability of solar irradiance necessitates to limit the instantaneous feed-in of solar power to electricity grids. An improvement of solar irradiance forecasts would allow to increase the defined threshold limits, especially in non-interconnected zones such as Reunion Island. Achieving higher forecast accuracy is particularly challenging in the case of tropical islands due to pronounced convection and local thermal circulations. Limited-area numerical weather prediction (NWP) models allow to forecast cloud processes and solar irradiance at high spatio-temporal resolutions of a few kilometres and minutes. Nevertheless, they often fail to accurately predict cloudiness evolution and thus tend to overestimate solar irradiance. Refining the initial conditions of regional models in terms of clouds is an efficient means for improving short-term cloud cover and irradiance forecasts. The assimilation of geostationary meteorological satellite observations can achieve this improvement. Nevertheless, a variety of satellite data assimilation (DA) approaches exist and research has focused on mid-latitudes so far. This thesis deals with the assimilation of geostationary satellite observations with limited-area models in the southwestern Indian Ocean. In a first step, the state of the art in terms of existing approaches for radiance and cloud property retrieval assimilation with regional-scale models is reviewed. In consequence, one of the most promising approaches is identified and applied to the southwestern Indian Ocean. In the performed experiments, multi-phase cloud water path retrievals from NASA Langley's SatCORPS cloud products are assimilated with an ensemble Kalman filter using the Weather Research and Forecasting model. A 41-member ensemble at 12 km grid spacing is applied with a DA cycling interval of 6 hours. The Data Assimilation Research Testbed and its forward operator for cloud water path are used to assimilate gridded cloud water retrievals in the ice, supercooled liquid, and liquid phase. The impact of this assimilation approach on forecasts of global horizontal irradiance (GHI) is evaluated for austral summer 2017/2018 using pyranometer observations on Reunion Island. A distinct positive impact of the applied method on the first 14 hours of GHI forecasts is found. Different aspects of the forecast improvement due to DA are analysed by means of control experiments without DA, experiments with a nested domain at 4 km grid spacing, and a comparison with operational NWP models. As the utilised gridded cloud products are available globally, the method offers a portable and globally applicable approach that may also be evaluated for other regions of the Earth
APA, Harvard, Vancouver, ISO, and other styles
7

Zamo, Michaël. "Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA029/document.

Full text
Abstract:
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs
Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram
APA, Harvard, Vancouver, ISO, and other styles
8

Bourgois, Laurent. "Automates cellulaires et estimation état-paramètres pour la modélisation semi-physique : application à l'assimilation de données environnementales." Littoral, 2010. http://www.theses.fr/2010DUNK0265.

Full text
Abstract:
L’objectif de cette thèse est de construire un modèle capable de s’adapter au comportement spatio-temporel réel d’un système. L’idée directrice est de réaliser un modèle semi-physique regroupant deux types d’information : la connaissance a priori des lois déterministes qui régissent le système étudié et l’observation du comportement réel de ce système obtenue à partir de données expérimentales. Ce modèle hybride est d’abord élaboré en s’inspirant des mécanismes d’un réseau neuromimétique dont la structure est contrainte par les équations d’état inverses discrètes. Cet inverseur neuronal semi-physique réalise un très bon compromis entre la propriété de parcimonie et la faculté de généralisation. Ce concept est ensuite appliqué en remplaçant le réseau de neurones par un automate cellulaire de type Boltzmann sur réseau à temps de relaxation multiples. La démarche consiste à compléter la connaissance physique de ce modèle en définissant des degrés de liberté supplémentaires. La phase d’apprentissage des paramètres du réseau est réalisée parallèlement à l’estimation des variables d’état à l’aide d’une méthode prédictive de Monte Carlo séquentielle : le filtre de Kalman d’ensemble. Cette méthode d’estimation duale état-paramètres exploite des mesures issues d’un observatoire à géométrie variable composé de capteurs fixes et mobiles
The aim of this thesis is to design a model capable of adapting itself to the real spatio-temporal behavior of a system. The basic idea is to carry out a semi-physical model gathering two types of information : the a priori knowledge of the deterministic rules which govern the studied system and the observation of the actual conduct of this system obtained from experimental data. This hybrid model is initially elaborated by being inspired by the mechanisms of a neuromimetical network whose structure is contrained by the discrete reverse-time state-space equations. This semi-physical neural network inverse problem solver reaches a very good compromise between the property of parsimony and the faculty of generalization. This concept is then applied by replacing the neural network by a multiple relaxation time lattice Boltzmann cellular automaton. The approach consists in completing the physical knowledge of this model by defining additional degrees of freedom. The learning phase of the network parameters is realized in parallel with the state-variable estimation starting from a sequential Monte Carlo forward method : the ensemble Kalman filter. This dual state-parameter estimation method exploits measurements derived from variable geometry observatory made up of fixed and moving sensors
APA, Harvard, Vancouver, ISO, and other styles
9

Guidard, Vincent. "Assimilation multi-échelle dans un modèle météorologique régional." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00569483.

Full text
Abstract:
Les modèles météorologiques à aire limitée sont aujourd'hui dotés de systèmes d'analyse de données observées propres, pour la plupart. Ces analyses combinent en général une ébauche provenant du modèle et des observations dans le but de rafraîchir les structures décrites par le modèle à aire limitée. Néanmoins, l'information provenant du modèle coupleur présente également un intérêt. En effet, le modèle coupleur est en général un modèle global bénéficiant de techniques d'assimilation de données performantes, qui permet de fournir une bonne description des grandes échelles notamment. L'objectif de ce travail de thèse est d'injecter l'information issue du modèle coupleur directement dans l'assimilation variationnelle tridimensionnelle (3D-VAR) du modèle à aire limitée, en tant que nouvelle source d'information. Concrètement, on décrit le vecteur d'information entrant dans l'assimilation du modèle à aire limitée comme étant la concaténation des différentes sources d'information : l'ébauche du modèle, les observations et les grandes échelles de l'analyse du modèle coupleur. Ce formalisme utilise une mesure de l'incertitude sur les sources d'information, décrite par les covariances entre les erreurs des différentes sources d'information. Des simplifications sur les covariances croisées entres les sources d'information sont proposées, afin de pouvoir développer le formalisme en vue de le rendre applicable simplement dans un logiciel d'analyse déjà existant. Une première utilisation de ce nouveau formalisme est faite dans un modèle académique unidimensionnel “en eaux peu profondes”, en mettant en oeuvre un modèle coupleur et un modèle couplé. Ces expériences montrent des résultats neutres à positifs, suivant les configurations, limités par le cadre simplifié de ce modèle académique. Dans le cadre de l'application de cette méthode dans les modèles utilisés à Météo- France (modèle global ARPÈGE et modèle à aire limitée ALADIN), une évaluation des statistiques liées aux erreurs sur les sources d'information est menée. Tout d'abord le choix des échelles venant de l'analyse du modèle global est fait, pour ne garder que les plus grandes structures (environ 240 km). Puis les statistiques sont calculées à partir de travaux précédents utilisant des méthodes ensemblistes pour échantillonner les erreurs. L'étude de ces statistiques permet de décrire les propriétés des covariances d'erreurs (écarts types, isotropie, etc.) et de quantifier l'erreur commise en appliquant les simplifications proposées. L'évaluation sur des cycles d'assimilation d'une quinzaine de jours montre que l'introduction des grandes échelles de l'analyse du modèle global a un impact légèrement positif en terme de score objectif. Néanmoins, malgré des différences visibles et systématiques engendrées par l'utilisation de cette nouvelle source d'information, aucun cas d'étude sur des champs diagnostiques, comme les précipitations, ne permet d'illustrer cet apport en terme de temps sensible ou de phénomènes météorologiques spécifiques. Ce travail de thèse propose donc une technique d'analyse en aire limitée permettant de prendre en compte des informations provenant du modèle coupleur, en plus des observations, pour corriger l'ébauche du modèle. Il ouvre la voie à d'autres recherches, notamment en sélectionnant d'autres échelles venant du modèle coupleur à considérer ou en l'étendant par l'ajout de la dimension temporelle.
APA, Harvard, Vancouver, ISO, and other styles
10

Caian, Mihaéla. "Maille variable ou domaine limité : quelle solution choisir pour la prévision à échelle fine ?" Toulouse 3, 1996. http://www.theses.fr/1996TOU30226.

Full text
Abstract:
Deux solutions pour l'ecoulement 3d atmospherique hydrostatique sont comparees sur un domaine d'interet: la solution du probleme mixte aux conditions initiales et a la limite, et celle globale du probleme initial sur une sphere virtuelle. Cette derniere, obtenue via une transformation homothetique definie par un pole de dilatation et par un coefficient d'etirement, donne une solution en maille variable sur la sphere reelle. Le but est d'etablir la limite de l'etirement pour laquelle l'augmentation de celui-ci entraine une meilleure precision, et pour quel cout de calcul. La convergence de la solution en maille variable est etudiee sur la sphere reelle: un critere de pseudo-equivalence avec la convergence en maille uniforme est defini. La stabilite des solutions numeriques est analysee par le comportement des spectres de l'energie cinetique. L'existence d'un intervalle de nombres d'onde pour lequel les deux solutions ont un meme type de convergence suivant la troncature est montree. Quand l'etirement augmente cet intervalle s'annule. La validite temporelle des deux solutions a meso-echelle est analysee par un algorithme de previsibilite dynamique. Une limite de l'etirement satisfaisant les deux contraintes de precision et d'efficacite est trouvee. Ces resultats ont ete aussi confirmes sur des situations meteorologiques reelles
APA, Harvard, Vancouver, ISO, and other styles
11

Quentin, Céline. "Etude de la surface océanique, de la signature radar et de ses interactions avec les flux turbulents de quantité de mouvement dans le cadre de l'expérience FETCH." Paris 6, 2002. https://tel.archives-ouvertes.fr/tel-00010934.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

QUENTIN, Céline Gwenaëlle. "Etude de la surface océanique, de sa signature radar et de ses interactions avec les flux turbulents de quantité de mouvement dans le cadre de l'experience FETCH." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2002. http://tel.archives-ouvertes.fr/tel-00010934.

Full text
Abstract:
L'objectif principal est l'étude de l'état de la mer et de ses relations avec les flux turbulents d'énergie et avec le signal radar rétrodiffusé. L'étude est basée sur les données de l'expérience FETCH (« Flux, Etat de la mer et Télédétection en Conditions de fetcH limité ») qui s'est déroulée dans le golfe du Lion, Méditerranée Occidentale, en Mars-Avril 1998. L'état de la mer a été étudié à partir de mesures in situ (bouées), et par télédétection aéroportée (radar RESSAC) et spatiale (altimètres TOPEX et ERS). Plusieurs états de mer (mer en développement, mer mixte et houle) associées à des situations météorologiques variées (Mistral, Tramontane, ou Marin) ont été analysés. La séparation du spectre des vagues en composantes de mer du vent (vagues générées par le vent local) ou houle a permis de classifier les états de mer. La loi de croissance des vagues a été établie pour les cas de pure mer observés localement par la bouée. . Cette loi diffèresensiblement de celles citées dans la littérature. Ce jeu de données a servi de base à une étude comparative entre modèles de prévision et observations, qui a montré la nécessité, pour cette région côtière, d'utiliser un champ de vent et un modèle d'état de mer de fine résolution spatiale. Une analyse de l'influence de l'état de la mer sur les flux de quantité de mouvement a été menée à partir des données de turbulence acquises sur une bouée (ASIS) et du navire de recherche (Atalante). En condition de mer du vent, l'influence de l'âge des vagues sur les flux de quantité de mouvement a été montrée. Mais aucune relation entre la pente significative des vagues et les paramètres des flux turbulents n'a été mise en évidence sur les données de l'expérience FETCH. L'analyse du signal radar à faible incidence (autour de 12°) a montré une dépendance très faible de la moyenne quadratique des pentes de la surface aux paramètres tels que la force du vent, l'âge ou la pente significative des vagues.
APA, Harvard, Vancouver, ISO, and other styles
13

Hello, Gwenaëlle. "Prise en compte de la dynamique associée aux dépressions des latitudes moyennes dans la détermination des conditions initiales des modèles météorologiques." Toulouse 3, 2002. http://www.theses.fr/2002TOU30172.

Full text
Abstract:
Dans des circonstances favorables à l'occurrence d'une forte tempête, les modèles de prévision numérique sont extrêmement sensibles à la précision de leurs conditions initiales. Les dépressions météorologiques et les tempêtes restent ainsi difficilement prévisibles en dépit du réalisme des modèles et de leurs états initiaux. Face à cette situation, certains proposent de modifier le système d'observation au jour le jour, de manière à l'adapter en permanence à la situation météorologique. Cette voie, appelée l'observation adaptative, est abordée dans le cadre du présent travail. Mais c'est une autre voie qui est l'objet principal de la thèse, la possibilité, pour un jeu d'observation donné, d'affiner l'analyse des conditions initiales ou de modifier le processus d'assimilation. La prévisibilité d'une dépression est matérialisée par des champs de sensibilité, le vecteur gradient d'une propriété scalaire caractéristique d'une tempête prévue autour de 36 ou 48 heures. On propose deux manières d'utiliser cette information. Dans un premier temps, on considère une approche en correction de l'état initial. .
The numerical weather prediction models are very sensitive to their initial conditions in meteorological circumstances where the appearance of a strong storm is possible. The storms and rapid cyclogeneses remain events which are difficult to forecast in spite of the continuously realism increase of the current numerical weather prediction models and of their initial states. To find alternatives to this situation, one of the proposals consists in the day-to-day modification of the data observation system in order to adapt it to the weather of the day. This strategy which is called adaptive observation is tackled here. But, this is an other aspect which makes the core of the present work. .
APA, Harvard, Vancouver, ISO, and other styles
14

Montroty, Rémi. "Impact d'une assimilation de données à méso-échelle sur la prévision cyclonique." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/782/.

Full text
Abstract:
Dans le cadre des responsabilités du CMRS de la Réunion et des axes de recherche du LACy et du CNRMGAME, cette thèse a été proposée pour explorer diverses pistes visant à améliorer la description des cyclones et leur prévision dans un modèle à méso-échelle sur l'océan Indien. Deux axes principaux ont été envisagés : l'utilisation de pseudo-observations de contenu intégré en vapeur d'eau (TCWV) dérivé des analyses du CEPMMT dans les zones nuageuses / pluvieuses conjointement à l'utilisation d'un bogus de vents 3D pour contraindre la position, la taille et l'intensité des cyclones tropicaux et l'utilisation des variances d'erreur "du jour" dans l'algorithme d'assimilation. Tant l'analyse et la prévision de la position que celles de l'intensité nous intéressent : les diagnostics sont donc ciblés sur les améliorations de celles-ci. Attendu que les cyclones tropicaux présentent une large zone nuageuse / pluvieuse dépourvue d'observations assimilées, nous nous intéressons aux impacts des pseudo-données de TCWV dans ces zones, données susceptibles d'apporter une information nouvelle, aidant à mieux contraindre l'analyse. Les pseudo-observations de TCWV en milieu nuageux / pluvieux sont obtenues à partir d'un algorithme construit en corrélant le TCWV des analyses 1D-VAR du CEPMMT avec les températures de brillance microondes des instruments SSM/I sur le sud-ouest de l'océan Indien. Ces données sont assimilées en mode 3D-VAR dans le modèle ALADIN Réunion ainsi qu'un bogus de vents 3D développé à la CRC. L'étude de 5 semaines couvre trois cyclones intenses sur ce bassin, en 2007. Les impacts sont très positifs en terme de réduction d'erreur de position : plus de 75% de réduction de cette erreur à l'analyse et un impact de ce meilleur positionnement dans les prévisions, avec un impact positif et statistiquement significatif jusqu'à 24h. L'apport des données de TCWV est notable en terme d'amélioration structurelle : dans une comparaison aux données de pluies instantanées du satellite TMI, l'expérience assimilant le bogus de vents 3D et les données de TCWV nuageuses / pluvieuses ressort comme étant la plus réaliste. Le rayon des vents maximaux, la position des bandes spiralées périphériques et les asymétries des cyclones tropicaux sont mieux décrits grâce au cyclage du TCWV et sont en meilleur accord avec les observations TMI. Pour explorer les impacts d'une cascade d'échelle d'ALADIN Réunion, une version du modèle AROME a été implémentée sur une partie du bassin du sud-ouest de l'océan Indien et intégrant la Réunion. L'orographie plus réaliste du modèle AROME Réunion à 4 km de résolution horizontale permet de bien capturer les précipitations cycloniques. Les réflectivités radar simulées semblent cohérentes avec les structures observées par le radar du Colorado à l'île de la Réunion et les structures de fine échelle sont moins étalées mais plus intenses dans AROME Réunion. .
Is part of the responsibilities of the RSMC of La Reunion and in line with the research topics of the LaCy and the CNRM-GAME, this PhD thesis has been suggested so as to investigate leads that would help better describe and predict tropical cyclones in a mesoscale model over the Indian ocean. Two main topics were investigated : the use of pseudo-observations of total column water vapour (TCWV) derived from the ECMWF analyses in cloudy/rainy areas jointly with a 3D wind bogus so as to constrain position, size and intensity of tropical cycles, and the use of error variances "of the day" in the data assimilation algorithm. We are interested equally in the position and intensity analyses and forecasts : scores and diagnostics thus target those two quantities. Since tropical cyclones exhibit large circular, cloudy/rainy areas which are devoid of observations that can be assimilated, we look at the impacts of those pseudo-observations of TCWV when assimilated in those areas. It is expected that this data can bring new information to the data assimilation system, thus helping constrain the analysis. The pseudo-observations of TCWV in cloudy/rainy areas are derived from an algorithm built by correlating the ECMWF's 1D-VAR TCWV analyses with the SSM/I brightness temperatures, over the southwest Indian ocean bassin. The TCWV data is then assimilated in a 5-week study during the year 2007, study which covered three intense cyclones over the basin. The TCWV data assimilation is done in 3D-VAR mode in the ALADIN Reunion model and is completed by the use of a 3D wind bogus, developed internally at the CRC. The impacts are very positive in terms of direct position error reduction : at analysis, the error was lowered by 75% and through this better positioning, a positive impact was further seen in the forecasts up to 24h, with statistical significance. The TCWV data impact is most notable in terms of structural improvement : when compared to TMI instantaneous rain rates, the experiment that assimilated both the 3D wind bogus and the TCWV data stands out as reproducing the most realistic cyclonic features. The radius of maximum winds, the pattern of spiral rainbands and the general asymetries of the tropical cyclones are better described thanks to the cycling of this data and are in better agreement with the TMI observations. In order to explore the impact of downscaling from ALADIN Reunion, a version of the high resolution model AROME has been implemented over a part of the southwest Indian ocean and covers Reunion island. The sharper, more realistic orography of the AROME Reunion model at 4 km horizontal resolution allows to better capture cyclonic precipitations. .
APA, Harvard, Vancouver, ISO, and other styles
15

Sameur, Abdelaziz. "Modèle de contact pneumatique/chaussée pour la prévision du bruit de roulement." Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001035.

Full text
Abstract:
Ces vingt dernières années les constructeurs d'automobiles ont réduit progressivement le bruit émis par les véhicules par une action portant sur les sources d'origine mécanique (réduction du bruit du moteur, meilleure conception des transmissions, amélioration des silencieux...). Il s'avère maintenant que le bruit de contact pneumatique/chaussée est la source principale des nuisances sonores à plus de 50 Km/h. La génération du bruit de contact a comme sources de nombreux phénomènes impliquant des mécanismes compliqués. L'un des principaux phénomènes étant les vibrations du pneumatique dues à la rugosité de la chaussée. Pour modéliser les vibrations du pneumatique, il faut connaître d'une part le comportement vibratoire du pneumatique et d'autre part les forces de contact. Le problème de contact entre un pneumatique et une chaussée est un contact dynamique tridimensionnel qui est difficile à modéliser dans toute sa généralité. Les modèles de contact avec la chaussée utilisés font appel à une modélisation simple en 2D et les modèles de contact existant en 3D sont trop lourds pour le calcul. Dans ce mémoire on apporte une contribution à l'étude des forces de contact engendrées par l'influence de la rugosité de la chaussée et ceci afin d'avoir une bonne approximation des sources de vibrations du pneumatique et prédire le bruit de roulement. On a développé un modèle semi analytique 3D qu'on a validé expérimentalement pour un contact ponctuel élastique et viscoélastique avec différentes formes de pointes de contact. La validation expérimentale et numérique du modèle pour un contact multipoints élastique a été abordée. On a terminé par une application de la méthode pour résoudre un problème de contact sur des profils de chaussées modèles.
APA, Harvard, Vancouver, ISO, and other styles
16

Boucher, Marie-Amélie. "Le défi de l'intertitude : de la production de prévisions hydrologiques d'ensemble à leur utilisation opérationnelle." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27697/27697.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ben, Salem-Hajili Amira. "Les produits dérivés climatiques : Modelisation et valorisation." Paris 2, 2009. http://www.theses.fr/2009PA020088.

Full text
Abstract:
Nous nous intéressons dans cette thèse au risque climatique, défini par le gain ou la perte financière dû à une variabilité des conditions météorologiques. Aucune étude antérieur, n’a présenté une analyse globale résumant les différentes approches de modélisation de variables climatiques et de valorisation de produits financiers indexés sur le climat. À ce jour, les techniques d’évaluations de ces contrats constituent la principale difficulté rencontrée par les gestionnaires, les recherches ont porté principalement sur la modélisation du comportement de la température afin de mieux gérer les risques. Nous partons de la dynamique de plusieurs chroniques climatiques issues de différentes régions en France, nous nous appliquons, à voir quels modèles, bien connus en économétrie, permettraient d’expliquer au mieux ces chroniques. Les modèles proposés, relèveront à la fois de la problématique de court terme et de long terme. Nous utilisons des modèles à mémoire longue, des modèles de volatilité et des modèles de rupture. Le but de cette thèse est de présenter une approche comparative de plusieurs méthodes de valorisation de dérivés climatiques et des modèles de calibrage de sous-jacent climatiques de types température et précipitation. En diversifiant les sources de données utilisées, nous espérons donner un panorama des modèles (les mieux adaptés) suivant les climats concernés.
APA, Harvard, Vancouver, ISO, and other styles
18

Caumont, Olivier. "Simulation et assimilation de données radar pour la prévision de la convection profonde à fine échelle." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00222771.

Full text
Abstract:
Le travail de thèse a porté sur l'utilisation des données radar dans les domaines de la validation et de l'initialisation des modèles atmosphériques à échelle kilométrique. Dans la première partie, un simulateur radar sophistiqué et modulaire est développé dans le modèle atmosphérique à haute résolution Méso-NH. Des tests de sensibilité sur les différentes formulations utilisées pour décrire chaque processus physique impliqué dans les mesures radar (réflectivités et vents radiaux Doppler) sont effectués. Ils permettent de préciser le niveau de complexité nécessaire pour la simulation de la donnée radar à des fins de validation et pour l'opérateur d'observation à des fins d'assimilation des données radar. Dans la seconde partie, une méthode originale est développée pour assimiler les réflectivités. Cette méthode en deux temps, appelée 1D+3DVar, restitue d'abord des profils verticaux d'humidité à partir de profils de réflectivité par le biais d'une technique bayésienne qui utilise des colonnes voisines d'humidité et de réflectivité cohérentes du modèle. Les pseudo-observations restituées sont à leur tour assimilées par un système d'assimilation 3DVar à la résolution de 2,5 km. La méthode est évaluée et réglée avec à la fois des données simulées et réelles. On montre notamment le bénéfice de l'assimilation des données de réflectivité pour les prévisions à courte échéance de la situation des inondations exceptionnelles de septembre 2002 dans le Gard.
APA, Harvard, Vancouver, ISO, and other styles
19

Taillardat, Maxime. "Méthodes Non-Paramétriques de Post-Traitement des Prévisions d'Ensemble." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV072/document.

Full text
Abstract:
En prévision numérique du temps, les modèles de prévision d'ensemble sont devenus un outil incontournable pour quantifier l'incertitude des prévisions et fournir des prévisions probabilistes. Malheureusement, ces modèles ne sont pas parfaits et une correction simultanée de leur biais et de leur dispersion est nécessaire.Cette thèse présente de nouvelles méthodes de post-traitement statistique des prévisions d'ensemble. Celles-ci ont pour particularité d'être basées sur les forêts aléatoires.Contrairement à la plupart des techniques usuelles, ces méthodes non-paramétriques permettent de prendre en compte la dynamique non-linéaire de l'atmosphère.Elles permettent aussi d'ajouter des covariables (autres variables météorologiques, variables temporelles, géographiques...) facilement et sélectionnent elles-mêmes les prédicteurs les plus utiles dans la régression. De plus, nous ne faisons aucune hypothèse sur la distribution de la variable à traiter. Cette nouvelle approche surpasse les méthodes existantes pour des variables telles que la température et la vitesse du vent.Pour des variables reconnues comme difficiles à calibrer, telles que les précipitations sexti-horaires, des versions hybrides de nos techniques ont été créées. Nous montrons que ces versions hybrides (ainsi que nos versions originales) sont meilleures que les méthodes existantes. Elles amènent notamment une véritable valeur ajoutée pour les pluies extrêmes.La dernière partie de cette thèse concerne l'évaluation des prévisions d'ensemble pour les événements extrêmes. Nous avons montré quelques propriétés concernant le Continuous Ranked Probability Score (CRPS) pour les valeurs extrêmes. Nous avons aussi défini une nouvelle mesure combinant le CRPS et la théorie des valeurs extrêmes, dont nous examinons la cohérence sur une simulation ainsi que dans un cadre opérationnel.Les résultats de ce travail sont destinés à être insérés au sein de la chaîne de prévision et de vérification à Météo-France
In numerical weather prediction, ensemble forecasts systems have become an essential tool to quantifyforecast uncertainty and to provide probabilistic forecasts. Unfortunately, these models are not perfect and a simultaneouscorrection of their bias and their dispersion is needed.This thesis presents new statistical post-processing methods for ensemble forecasting. These are based onrandom forests algorithms, which are non-parametric.Contrary to state of the art procedures, random forests can take into account non-linear features of atmospheric states. They easily allowthe addition of covariables (such as other weather variables, seasonal or geographic predictors) by a self-selection of the mostuseful predictors for the regression. Moreover, we do not make assumptions on the distribution of the variable of interest. This new approachoutperforms the existing methods for variables such as surface temperature and wind speed.For variables well-known to be tricky to calibrate, such as six-hours accumulated rainfall, hybrid versions of our techniqueshave been created. We show that these versions (and our original methods) are better than existing ones. Especially, they provideadded value for extreme precipitations.The last part of this thesis deals with the verification of ensemble forecasts for extreme events. We have shown several properties ofthe Continuous Ranked Probability Score (CRPS) for extreme values. We have also defined a new index combining the CRPS and the extremevalue theory, whose consistency is investigated on both simulations and real cases.The contributions of this work are intended to be inserted into the forecasting and verification chain at Météo-France
APA, Harvard, Vancouver, ISO, and other styles
20

Hui, Chen De. "Adaptation d'un schéma pronostique de paramétrisation de la convection à un modèle de prévision numérique à maille variable." Clermont-Ferrand 2, 1989. http://www.theses.fr/1989CLF21198.

Full text
Abstract:
Avec la progression de la technique des super-ordinateurs, on utilise des modeles numeriques avec des mailles de plus en plus fines. Cependant quand la maille est reduite, se pose un autre probleme associe releve par bougeault et geleyn (1989): les precipitations prevues deviennent tres sensibles a la maille. Ce qui represente un grand inconvenient dans les schemas actuels. Donc, l'elaboration d'un schema de parametrisation de la convection convenant pour l'estimation correcte de la quantite de pluie prevue de la maniere independante de la maille est pratiquement de plus en plus demandee. La theorie de notre travail est basee sur l'idee qu'un schema adapte a des modeles d'echelles tresfines doit reposer sur des quantites convectives pronostiques. A partir du schema de bougeault (1985), nous etablissons plusieurs propositions de schemas pronostiques de convection. Puis, nous les testons systematiquement avec des modeles 1d et 2d. Les experiences 1d montrent que nos nouveaux schemas pronostiques sont stables et coherents avec le modele numerique, et que les resultats ainsi obtenus sont comparables avec les donnees de gate. De plus, le temps de reponse de l'activite convective au forcage de l'environnement simule est de l'ordre de 1436 minutes, il est alors comparable avec l'echelle de temps de la vie d'un cumulus individuel. Egalement, l'idee de emanuel (1987), qui a recemment remis en question l'hypothese traditionnelle bien connue cisk, a ete testee. Les resultats obtenus montrent que cette idee ne tient pas. Les experiences 2d ont revele que la quantite de pluie prevue varie comme une puissance de la maille. Finalement, avec une nouvelle fermeture du schema qui utilise un coefficient de dependance de la maille c, nous avons obtenu un meilleur rapport du maximum de quantite de pluie prevue avec une maille petite (10 km) sur le minimum prevu avec une maille grande (120 km) de l'ordre de 1,07.
APA, Harvard, Vancouver, ISO, and other styles
21

Dionne, Isabelle. "Évaluation d'un système expérimental de prévisions hydrologiques et hydrauliques d'ensemble." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28437/28437.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Masbou, Matthieu. "LM-PAFOG : a new three-dimentional fog forecast model with parametrised microphysics." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00730498.

Full text
Abstract:
La présence de brouillard occasionne des perturbations des transports aériens et routiers et peut être à l'origine d'accidents graves. Cependant, le brouillard est en général un phénomène de petite échelle, influencé aussi bien par les transports advectifs locaux, les échanges turbulents que par sa structure microphysique. Une paramétrisation microphysique basée sur le modèle unidimensionnel de prévision du brouillard, PAFOG, a été introduite dans le modèle méso-échelle tridimensionnel,"Lokal Model". L'évaluation des prévisions de LM-PAFOG montre la dispersion des performances du modèle entre les périodes de jour et de nuit. Des comparaisons avec d'autres systèmes de prévision du brouillard pointent l'influence d'un schéma d'assimilation adapté, ainsi que celle de la paramétrisation de la visibilité. Enfin, un schéma de vérification utilisant des produits satellites pour le brouillard et les stratus bas a été testé.
APA, Harvard, Vancouver, ISO, and other styles
23

Mallet, Vivien. "Estimation de l'incertitude et prévision d'ensemble avec un modèle de chimie transport - Application à la simulation numérique de la qualité de l'air." Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001654.

Full text
Abstract:
La thèse s'attache à évaluer la qualité d'un modèle de chimie-transport, non pas par une comparaison classique aux observations, mais en estimant ses incertitudes a priori dues aux données d'entrées, à la formulation du modèle et aux approximations numériques. L'étude de ces trois sources d'incertitude est menée respectivement grâce à des simulations Monte Carlo, des simulations multi-modèles et des comparaisons entre schémas numériques. Une incertitude élevée est mise en évidence, pour les concentrations d'ozone. Pour dépasser les limitations dues à l'incertitude, une stratégie réside dans la prévision d'ensemble. En combinant plusieurs modèles (jusqu'à quarante-huit modèles) sur la bases des observations passées, les prévisions peuvent être significativement améliorées. Ce travail a aussi été l'occasion de développer un système de modélisation innovant, Polyphemus.
APA, Harvard, Vancouver, ISO, and other styles
24

Jecker, Loïc. "Prévision de la transition bypass à l’aide d’un modèle à énergie cinétique laminaire basé sur la dynamique des modes de Klebanoff." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0026/document.

Full text
Abstract:
Le passage du régime laminaire au régime turbulent s’accompagne d’importantes modifications des propriétés physiques de l’écoulement. Une prévision précise du point du début de la transition laminaire/turbulent revêt donc une importance considérable dans de nombreux domaines pratiques. Lorsque l’intensité des perturbations extérieures est significative, c'est-à-dire dans le cas de couches limites se développant sur une paroi présentant des rugosités ou soumises à une forte turbulence résiduelle (sillage impactant), les mécanismes de formation et d’amplification des instabilités sont profondément modifiés. Ces perturbations sont les modes de Klebanoff (également appelés stries) qui s’amplifient et déclenchent la transition, qualifiée dans ce cas de Bypass. Ces stries sont très énergétiques, caractérisées par des fluctuations de vitesse très importantes (de l’ordre de 10% de la vitesse extérieure), alors que la couche limite conserve son caractère laminaire. La thèse proposée concerne la modélisation de ces stries via la résolution d’une équation de transport pour l’énergie cinétique dite laminaire. Dans un premier temps, le travail du candidat portera sur la modélisation des termes de production et de dissipation de l’énergie cinétique laminaire. Ceux-ci sont liés au processus de réceptivité de la couche limite vis-à-vis des perturbations extérieures et à la dynamique des modes de Klebanoff dans la zone laminaire. Pour ce faire, la thèse s’appuiera sur des études réalisées depuis plusieurs années au sein de l’unité ITAC sur la théorie des perturbations optimales ainsi que sur les travaux numériques et expérimentaux prévus dans le cadre d’un projet de recherche interne Onera. Classiquement cette équation de transport est couplée avec celles correspondant à l’énergie cinétique turbulente et à la dissipation, le mécanisme d’échange entre les énergies cinétiques laminaire et turbulente devra être soigneusement étudié : ce dernier pilote la transition vers la turbulence. Une attention particulière sera portée aux couches limites décollées et plus précisément à la prise en compte de la transition dans ces bulbes. Cette nouvelle modélisation innovante permettra l’amélioration d’une première approche pour le calcul de la transition bypass dans le solveur elsA, développé à l’Onera, et constituera une étape importante vers la mise en place de techniques de prévision de la transition pratiques et performantes
This work aims to develop a new bypass-transition prediction model based on the Klebanoff modes dynamics. To represent these mode dynamics the Laminar Kinetic Energy (LKE) concept has been chosen, in order to model these mode energy with a new variable. A new deffinition is given to the LKE and a transport equation consequently derived to describe the Klebanoff modes growth and destabilisation. This equation is incorporated in a k-omega turbulence model as done by Walters & Cokljat, to give a three-equation kL-kT-omega formulation. This new model is written in a Reynolds-averaged Navier-Stokes (RANS) pattern and only uses local variables, it thus can be used in an industrial context
APA, Harvard, Vancouver, ISO, and other styles
25

Tannoury, Elias. "Contribution à la prévision du bruit tonal des machines tournantes subsoniques : couplage des simulations numériques et des modèles analytiques avec les analogies acoustiques." Phd thesis, Paris, ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00935537.

Full text
Abstract:
La conception des groupes moto-ventilateurs au sein de Valeo Systèmes Thermiques et la prédiction de leurs performances aérauliques reposent majoritairement sur les méthodes de développement virtuel, i.e. la conception assistée par ordinateur et la simulation numérique de la mécanique des fluides. Dans ce cadre, le présent travail propose une méthodologie de prédiction et de minimisation de la composante tonale du bruit d'un groupe moto-ventilateur. L'approche adoptée est hybride et dissocie la génération et la propagation du bruit. La propagation en champ libre est calculée avec une formulation intégrale de l'analogie de Ffowcs-Williams et Hawkings. Dans un premier temps, les termes-sources à la surface du rotor et du stator sont calculés par une simulation numérique instationnaire. La compacité de la pale ainsi que l'influence du maillage acoustique sur la prédiction sont ensuite investiguées. Finalement, les résultats sont comparés aux mesures expérimentales. Dans un deuxième temps, les sources acoustiques à la surface du stator sont calculées avec le modèle de Sears enrichi avec des données extraites d'une simulation stationnaire du rotor complet. Avant de procéder à la prédiction acoustique, l'influence du modèle de turbulence sur les résultats finaux est évaluée à travers une comparaison entre LES et RANS pour l'écoulement autour de profils extrudés. Enfin, la problématique de minimisation du bruit tonal est traitée en tant que problème d'optimisation où la géométrie d'une aube est paramétrée et où la recherche de l'optimum est conduite par un algorithme génétique. Cette optimisation a permis de concevoir un stator moins bruyant et adapté à l'écoulement en aval du rotor étudié.
APA, Harvard, Vancouver, ISO, and other styles
26

Krumenacker, Laurent. "Contribution à la prévision de l'érosion de cavitation à partir de simulations numériques : proposition d'un modèle à deux échelles pour l'estimation du chargement imposé en paroi par le fluide." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENI006/document.

Full text
Abstract:
Lors du fonctionnement d'une installation hydraulique, l'apparition de zone de cavitation dans l'écoulement peut entraîner un endommagement important sur la surface des matériaux. La quantification de l'intensité de cavitation sur les composants hydrauliques serait utile à la fois pour mieux concevoir les nouveaux équipements en projet, mais aussi pour améliorer la conduite et optimiser la maintenance des matériels existants. Au vu du grand nombre de paramètres régissant les écoulements cavitants, l'élaboration de lois de similitudes universelles à partir d'expériences est délicate. Avec l'augmentation des moyens de calculs, la simulation numérique est un outil pour étudier ce phénomène sur des géométries variées. La principale difficulté de cette démarche réside dans la différence d'échelles existant entre les simulations numériques U-RANS servant à simuler l'écoulement cavitant et les mécanismes d'implosion de bulles jugés responsables de l'endommagement sur le solide. La méthode proposée dans ce manuscrit s'appuie sur un post-traitement des simulations U-RANS afin de caractériser une distribution de bulles et de simuler leurs comportements à de plus petites échelles spatiales et temporelles. Dans un premier temps, notre travail consiste à expliciter les équations locales de conservation de masse, de quantité de mouvement et d'énergie pour un écoulement liquide/gaz comprenant deux espèces eau/air. Ce travail mène à l'élaboration de grandeurs de mélange prenant notamment en compte la présence de gaz incondensables au sein du fluide. Des hypothèses permettent de rendre ce système équivalent à ceux, utilisant une approche homogène, implémentés dans les codes de simulations d'écoulements cavitants instationnaires développés précédemment au laboratoire. La caractérisation des populations de bulles effectuée par le post-traitement prend ainsi en considération à la fois la tension superficielle et la présence de gaz incondensables. Dans un deuxième temps, l'élaboration d'un code de calcul permettant la simulation de la dynamique d'un nuage de bulles est débutée. Ce dernier a pour ambition de tenir compte à la fois des interactions entre les bulles et des déformations non sphériques que celles-ci peuvent subir à l'aide d'une méthode potentielle. Des premiers résultats de simulations sont présentés dans ce manuscrit et permettent de tenir compte de faibles déformations des bulles. La dernière étape de ce travail consiste à proposer une méthode de chaînage entre ces deux échelles en initialisant le calcul de dynamique de bulles à l'aide des résultats du calcul U-RANS. L'énergie émise lors de l'implosion des bulles et impactant la surface solide est ainsi calculée, caractérisant de ce fait le chargement imposé par l'écoulement sur le matériau. Cette méthode est par la suite appliquée sur différentes géométries en comparant à chaque fois les résultats obtenus à des expériences. Nous comparons également nos résultats à des méthodes précédemment établies au sein du laboratoire afin d'évaluer la pertinence de cette approche
During the life's cycle of a hydraulic installation, the occurrence of cavitation can cause significant damages on the material's surface. The quantification of the cavitation intensity in different geometry can be useful to get better designs for new installations, but also to improve the operating and to optimize maintenance of existing equipments. The development of universal laws of similarity from experiments is difficult due to the large number of parameters governing cavitating flows. With the increase of computational performance, numerical simulations offer the opportunity to study this phenomenon in various geometries. The main difficulty of this approach is the scale's difference existing between the numerical simulations U-RANS used to calculate the cavitating flow and mechanisms of bubble's collapse held responsible for damages on the solid. The proposed method in this thesis is based on a textbf{post-treatment} of the textbf{U-RANS} simulations to characterize a distribution of bubbles and to simulate their behavior at lower spatial and temporal scales. Our first objective is to make explicit a system of equations corresponding to phenomena occurring locally in the two-phase flow. This work leads to the development of mixture variables taking into account the presence of non-condensable gases in the fluid. Assumptions are taken to make the system, after using the Reynolds averaging procedure, equivalent to those, using a homogeneous approach, implemented in the unsteady cavitating flows solvers previously developed in the laboratory. The characterization of bubbles made by this post-treatment takes into account both the surface tension and the presence of non-condensable gases. The development of a solver for the simulation of the dynamic of a bubble cloud is started. It aims to take into account both the interactions between bubbles and non-spherical deformations with a potential method. First results of these simulations are presented and small non-spherical deformations occurring during the collapse can be observed. Finally, we propose a chained method between these two systems initializing the bubble dynamic solver with results of U-RANS simulations. The energy emitted during the implosion of bubbles impacting the solid surface is calculated. So the aggressiveness of the flow on the material can be characterized. We apply this method on different flows to compare numerical and experimental results
APA, Harvard, Vancouver, ISO, and other styles
27

Gerard, Luc. "Physical parameterisations for a high resolution operational numerical weather prediction model." Doctoral thesis, Universite Libre de Bruxelles, 2001. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211550.

Full text
Abstract:
Les modèles de prévision opérationnelle du temps résolvent numériquement les équations de la mécanique des fluides en calculant l'évolution de champs (pression, température, humidité, vitesses) définis comme moyennes horizontales à l'échelle des mailles d'une grille (et à différents niveaux verticaux).

Les processus d'échelle inférieure à la maille jouent néanmoins un rôle essentiel dans les transferts et les bilans de chaleur, humidité et quantité de mouvement. Les paramétrisations physiques visent à évaluer les termes de source correspondant à ces phénomènes, et apparaissant dans les équations des champs moyens aux points de grille.

Lorsque l'on diminue la taille des mailles afin de représenter plus finement l'évolution des phénomènes atmosphériques, certaines hypothèses utilisées dans ces paramétrisations perdent leur validité. Le problème se pose surtout quand la taille des mailles passe en dessous d'une dizaine de kilomètres, se rapprochant de la taille des grands systèmes de nuages convectifs (systèmes orageux, lignes de grain).

Ce travail s'inscrit dans le cadre des développements du modèle à mailles fines ARPÈGE ALADIN, utilisé par une douzaine de pays pour l'élaboration de prévisions à courte échéance (jusque 48 heures).

Nous décrivons d'abord l'ensemble des paramétrisations physiques du modèle.

Suit une analyse détaillée de la paramétrisation actuelle de la convection profonde. Nous présentons également notre contribution personnelle à celle ci, concernant l'entraînement de la quantité de mouvement horizontale dans le nuage convectif.

Nous faisons ressortir les principaux points faibles ou hypothèses nécessitant des mailles de grandes dimensions, et dégageons les voies pour de nouveaux développements.

Nous approfondissons ensuite deux des aspects sortis de cette discussion: l'usage de variables pronostiques de l'activité convective, et la prise en compte de différences entre l'environnement immédiat du nuage et les valeurs des champs à grande échelle. Ceci nous conduit à la réalisation et la mise en œuvre d'un schéma pronostique de la convection profonde.

A ce schéma devraient encore s'ajouter une paramétrisation pronostique des phases condensées suspendues (actuellement en cours de développement par d'autres personnes) et quelques autres améliorations que nous proposons.

Des tests de validation et de comportement du schéma pronostique ont été effectués en modèle à aire limitée à différentes résolutions et en modèle global. Dans ce dernier cas l'effet du nouveau schéma sur les bilans globaux est également examiné.

Ces expériences apportent un éclairage supplémentaire sur le comportement du schéma convectif et les problèmes de partage entre la schéma de convection profonde et le schéma de précipitation de grande échelle.

La présente étude fait donc le point sur le statut actuel des différentes paramétrisations du modèle, et propose des solutions pratiques pour améliorer la qualité de la représentation des phénomènes convectifs.

L'utilisation de mailles plus petites que 5 km nécessite enfin de lever l'hypothèse hydrostatique dans les équations de grande échelle, et nous esquissons les raffinements supplémentaires de la paramétrisation possibles dans ce cas.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
28

Einfalt, Thomas. "Recherche d'une méthode optimale de prévision de pluie par radar en hydrologie urbaine." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1988. http://tel.archives-ouvertes.fr/tel-00520784.

Full text
Abstract:
Cette thèse a pour objet le premier développement d'une méthode de prévision de pluie par radar adaptée aux objectifs de l'hydrologie urbaine. Une revue des travaux effectués sur la prévision de pluie dans les vingt dernières années a été accomplie. Les algorithmes prometteurs utilisés dans les études précédentes ont été sélectionnés et améliorés en vue des objectifs de l'application envisagée : - concentration sur les fortes pluies ; temps de calcul inférieur a 60 secondes sur mini-ordinateur ; contrôle de qualité de la prévision. De cette analyse a émergé une nouvelle méthode de prévision. Une comparaison détaillée sur 94 images radar et une comparaison globale sur 1068 images ont montré la fiabilité de la méthode pour la prévision hydrologique. La pluie la plus importante de ces quatre dernières années en région parisienne a été étudiée particulièrement. De plus, deux paramètres liés seulement à la structure de l'image, peuvent servir d'indice de fiabilité, calculable a priori, de chaque prévision. Finalement, la méthode a été implantée sur les ordinateurs du service d'assainissement de Seine-Saint-Denis.
APA, Harvard, Vancouver, ISO, and other styles
29

Planche, Céline. "Développement et évaluation d'un modèle tridimensionnel de nuage mixte à microphysique détaillée : application aux précipitations orographiques." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00622980.

Full text
Abstract:
La prévision quantitative des précipitations à l'aide des modèles météorologiques reste encore un grand défi posé à la communauté des sciences atmosphériques. En effet, deux problèmes majeurs sont généralement identifiés pour la prévision opérationnelle des précipitations et du climat : les interactions des systèmes précipitants avec le relief et avec la pollution. Cette thèse contribue à l'amélioration des prévisions de pluies. La stratégie adoptée est d'étudier des évènements précipitants en zones montagneuses en décrivant au mieux les interactions aérosol-nuage-précipitation à l'aide du modèle à microphysique mixte détaillée : DEtailed SCAvenging Model (DESCAM, Flossmann et Wobrock (2010)). Ce modèle utilise cinq distributions pour représenter les particules d'aérosol résiduelles et interstitielles ainsi que les gouttes et cristaux de glace. Le modèle a directement été comparé aux observations réalisées au cours de la campagne expérimentale COPS (Convective and Orographically induced Precipitation Study), qui a eu lieu pendant l'été 2007 à la frontière franco-allemande. En particulier, les simulations des pluies ont été comparées avec des observations de différents radars afin d'évaluer les performances du modèle mais aussi d'aider à l'interprétation des réflectivités de la bande brillante. La sensibilité par rapport à la pollution particulaire a été étudiée pour les propriétés des nuages et des précipitations. Pour les cas étudiés, plus le nombre des particules d'aérosol présentes dans l'atmosphère est important et plus leur solubilité est élevée, plus les précipitations au sol sont faibles. Ces comportements globaux peuvent toutefois être localement différents. Il existe donc des interactions plus complexes entre les particules d'aérosol, les nuages et les précipitations qui doivent être encore plus approfondies.
APA, Harvard, Vancouver, ISO, and other styles
30

Selhaoui, Najim. "Étude thermodynamique de composés binaires de métaux de transition par calorimétrie à hautes températures : modélisation numérique de diagrammes de phases. Confrontation expériences-modèles." Nancy 1, 1990. http://www.theses.fr/1990NAN10042.

Full text
Abstract:
Cette étude a pour but l'amélioration des connaissances thermodynamiques relatives aux alliages de métaux de transition afin de fournir des données sûres tant aux physiciens du solide qu'aux calculateurs de diagrammes de phases à finalité industrielle. Du point de vue expérimental, nous avons réalisé l'informatisation de l'acquisition et du traitement des données, ce qui a simplifié l'emploi du calorimètre. Nous avons exposé nos résultats calorimétriques relatifs à 27 composés solides et un alliage liquide (NI, HF). Les alliages que nous avons étudiés se caractérisent par des réactions de formation très exothermiques. Une observation déja faite par gachon et kleppa est confirmée : Les enthalpies de formation sont d'autant plus négatives que les composants sont plus bas dans la classification périodique. De la même façon, une corrélation réelle mais non stricte existe entre la température de fusion du composé et son enthalpie de formation. L'ensemble de nos résultats expérimentaux permet d'envisager un certain nombre de développements. Tout d'abord, exploités en parallèle avec le diagramme de phase, ils nous permettent la modélisation numérique des systèmes HFNI, HFCO et HFPD. Ensuite, à la lumière des résultats obtenus, une étude critique des modèles de prévisions qualitatives et quantitatives des enthalpies de formation des alliages de métaux de transition a été menée
APA, Harvard, Vancouver, ISO, and other styles
31

Nguyen, Huu Phuc. "Développement d'une commande à modèle partiel appris : analyse théorique et étude pratique." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2323/document.

Full text
Abstract:
En théorie de la commande, un modèle du système est généralement utilisé pour construire la loi de commande et assurer ses performances. Les équations mathématiques qui représentent le système à contrôler sont utilisées pour assurer que le contrôleur associé va stabiliser la boucle fermée. Mais, en pratique, le système réel s’écarte du comportement théorique modélisé. Des non-linéarités ou des dynamiques rapides peuvent être négligées, les paramètres sont parfois difficiles à estimer, des perturbations non maitrisables restent non modélisées. L’approche proposée dans ce travail repose en partie sur la connaissance du système à piloter par l’utilisation d’un modèle analytique mais aussi sur l’utilisation de données expérimentales hors ligne ou en ligne. A chaque pas de temps la valeur de la commande qui amène au mieux le système vers un objectif choisi a priori, est le résultat d’un algorithme qui minimise une fonction de coût ou maximise une récompense. Au centre de la technique développée, il y a l’utilisation d’un modèle numérique de comportement du système qui se présente sous la forme d’une fonction de prédiction tabulée ayant en entrée un n-uplet de l’espace joint entrées/état ou entrées/sorties du système. Cette base de connaissance permet l’extraction d’une sous-partie de l’ensemble des possibilités des valeurs prédites à partir d’une sous-partie du vecteur d’entrée de la table. Par exemple, pour une valeur de l’état, on pourra obtenir toutes les possibilités d’états futurs à un pas de temps, fonction des valeurs applicables de commande. Basé sur des travaux antérieurs ayant montré la viabilité du concept en entrées/état, de nouveaux développements ont été proposés. Le modèle de prédiction est initialisé en utilisant au mieux la connaissance a priori du système. Il est ensuite amélioré par un algorithme d’apprentissage simple basé sur l’erreur entre données mesurées et données prédites. Deux approches sont utilisées : la première est basée sur le modèle d’état (comme dans les travaux antérieurs mais appliquée à des systèmes plus complexes), la deuxième est basée sur un modèle entrée-sortie. La valeur de commande qui permet de rapprocher au mieux la sortie prédite dans l’ensemble des possibilités atteignables de la sortie ou de l’état désiré, est trouvée par un algorithme d’optimisation. Afin de valider les différents éléments proposés, cette commande a été mise en œuvre sur différentes applications. Une expérimentation réelle sur un quadricoptère et des essais réels de suivi de trajectoire sur un véhicule électrique du laboratoire montrent sacapacité et son efficacité sur des systèmes complexes et rapides. D’autres résultats en simulation permettent d’élargir l’étude de ses performances. Dans le cadre d’un projet partenarial, l’algorithme a également montré sa capacité à servir d’estimateur d’état dans la reconstruction de la vitesse mécanique d’une machine asynchrone à partir des signaux électriques. Pour cela, la vitesse mécanique a été considérée comme l’entrée du système
In classical control theory, the control law is generally built, based on the theoretical model of the system. That means that the mathematical equations representing the system dynamics are used to stabilize the closed loop. But in practice, the actual system differs from the theory, for example, the nonlinearity, the varied parameters and the unknown disturbances of the system. The proposed approach in this work is based on the knowledge of the plant system by using not only the analytical model but also the experimental data. The input values stabilizing the system on open loop, that minimize a cost function, for example, the distance between the desired output and the predicted output, or maximize a reward function are calculated by an optimal algorithm. The key idea of this approach is to use a numerical behavior model of the system as a prediction function on the joint state and input spaces or input-output spaces to find the controller’s output. To do this, a new non-linear control concept is proposed, based on an existing controller that uses a prediction map built on the state-space. The prediction model is initialized by using the best knowledge a priori of the system. It is then improved by using a learning algorithm based on the sensors’ data. Two types of prediction map are employed: the first one is based on the state-space model; the second one is represented by an input-output model. The output of the controller, that minimizes the error between the predicted output from the prediction model and the desired output, will be found using optimal algorithm. The application of the proposed controller has been made on various systems. Some real experiments for quadricopter, some actual tests for the electrical vehicle Zoé show its ability and efficiency to complex and fast systems. Other the results in simulation are tested in order to investigate and study the performance of the proposed controller. This approach is also used to estimate the rotor speed of the induction machine by considering the rotor speed as the input of the system
APA, Harvard, Vancouver, ISO, and other styles
32

Devenon, Jean-Luc. "Utilisation de mesures de courants côtiers superficiels par radar HF pour valider et optimiser les modèles numériques de circulation littorale en mer à marée." Paris 6, 1986. http://www.theses.fr/1986PA066463.

Full text
Abstract:
On présente une utilisation originale de mesures de courants par radar HF pour la modélisation numérique en dynamique côtière. On rappelle le principe du fonctionnement du radar en courantomètre, et on étudie les incertitudes de mesures réalisées par cet appareil. On procède ensuite à la comparaison des résultats d'une expérience de courantométrie par radar HF avec les résultats d'un modèle numérique, et on montre l'aptitude du radar à valider globalement les résultats d'un tel modèle sur une zone étendue de son domaine de prédiction. On présente enfin une technique d'optimisation de modèle par assimilation de données radar qui permet d'ajuster de façon optimale certains des paramètres du modèle et certaines de ses conditions aux limites, et qui fournit des cartes de courant lissées.
APA, Harvard, Vancouver, ISO, and other styles
33

Giordano, Christophe. "Prédiction et optimisation des techniques pour l’observation à haute résolution angulaire et pour la future génération de très grands télescopes." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4136/document.

Full text
Abstract:
Avec l’avènement de la prochaine génération de télescope de plus de 30m de diamètre, il devient primordial de réduire le coût des observations et d’améliorer leur rendement scientifique. De plus il est essentiel de construire ces instruments sur des sites disposant d’une qualité optique maximale. J’ai donc essayé, au cours de ma thèse, de développer un outil fiable, facile d’utilisation et économique permettant de satisfaire ces exigences. J’ai donc utilisé le modèle de prévision météorologique Weather Research and Forecasting et le modèle de calcul de la turbulence optique Trinquet-Vernin pour prédire, plusieurs heures à l’avance, les conditions optiques du ciel tout au long de la nuit. Cette information permettrait d’améliorer la gestion du programme d’observation, appelée "flexible scheduling", et ainsi de réduire les pertes dues à la variation des conditions atmosphériques. Les résultats obtenus et les améliorations apportées au modèle WRF-TV lui permettent de présenter un bon accord entre les mesures et les prévisions ce qui est prometteur pour une utilisation réelle. Au delà de cette gestion, nous avons voulu créer un moyen d’améliorer la recherche et le test de sites astronomiquement intéressants. Nous avons donc définit un paramètre de qualité qui prend en compte les conditions météorologiques et optiques. Ce paramètre a été testé au-dessus de l’île de La Palma aux Canaries et a montré que l’Observatorio del Roque de los Muchachos est situé au meilleur emplacement de l’île. Enfin nous avons créé une routine d’automatisation du modèle WRF-TV afin d’avoir un outil opérationnel fonctionnant de manière autonome
With the next generation of extremely large telescope having mirror with a diameter larger than 30m, it becomes essential to reduce the cost of observations and to improve their scientific efficiency. Moreover it is fundamental to build these huge infrastructures in location having the best possible optical quality. The purpose of my thesis is to bring a solution easier and more economical than before. I used the Weather Research and Forecasting (WRF) model and the Trinquet-Vernin parametrization, which computes the values of the optical turbulence, to forecast a couple of hours in advance the evolution of the sky optical quality along the coming night. This information would improve the management of observation program, called "flexible scheduling", and thereby reduce losses due to the atmospheric variations. Our results and improvements allow the model us WRF-TV to have a good agreement between previsions and in-situ measurements in different sites, which is promising for a real use in an observatory. Beyond the flexible scheduling, we wanted to create a tool to improve the search for new sites or site testing for already existing sites. Therefore we defined a quality parameter which takes into account meteorological conditions (wind, humidity, precipitable water vapor) and optical conditions (seeing, coherence time, isoplanatic angle). This parameter has been tested above La Palma in Canary island showing that the Observatorio del Roque de los Muchachos is located close to the best possible location of the island. Finally we created an automated program to use WRF-TV model in order to have an operational tool working routinely
APA, Harvard, Vancouver, ISO, and other styles
34

Aba, Baaddi. "Étude thermodynamique de certains alliages binaires en métaux de transition par calorimétrie à haute température : cas des systèmes tiru, tirh, tiir, zrir, hfru, hfrh, hfir." Nancy 1, 1992. http://www.theses.fr/1992NAN10141.

Full text
Abstract:
Cette étude thermodynamique est une contribution expérimentale a la connaissance du comportement des alliages de métaux de transition. Les enthalpies de formation de 23 composes binaires, formes d'un métal de la colonne 4 (ti, zr, hf) et d'un métal du groupe du fer, ont été mesurées par réaction de synthèse directe à hautes températures dans un calorimètre spécialement conçu. Des contrôles métallographiques et structuraux ont été réalisés systématiquement. Les résultats montrent que: (a) les variations de l'enthalpie de formation, en fonction de la position des composants dans la classification périodique, ne peuvent pas être décrites de façon simple, (b) les modèles théoriques de prévisions des enthalpies de formation, bien qu'encore imparfaits, font actuellement beaucoup de progrès. Enfin, une utilisation du logiciel thermo-calc a mené à la modélisation numérique complète de deux systèmes: hfir et zrir
APA, Harvard, Vancouver, ISO, and other styles
35

Margerit, Jonathan. "Modélisation et Simulations Numériques de la Propagation de Feux de Forêts." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 1998. http://tel.archives-ouvertes.fr/tel-00003730.

Full text
Abstract:
La prédiction de la propagation des feux de forêts consiste à trouver l'évolution du front du feu. Cette thèse reprend le modèle monodimensionnel de propagation du feu sous forme d'ellipses de Richards afin de trouver l'expression intrinsèque de la vitesse de ce front. Une formulation équivalente variationnelle de ce modèle en utilisant les principes de l'optique géométrique est aussi dérivée. Un modèle tridimensionnel de la propagation du feu grâce à une homogénéisation par prise de moyennes et à l'utilisation de la thermodynamique des processus irréversibles est alors obtenu. Une simplification de ce modèle, suivie d'une réduction bidimensionnelle sur la surface gauche du sol, nous conduisent alors à un modèle bidimensionnelle, qui tient compte des principaux paramµetres de la propagation des feux de forêts. Celui-ci permet d'obtenir des formes de corrélations utilisées par le modèle des ellipses. Le caractère non local de l'intervention du flux radiatif en provenance de la zone en feu qui se trouve au-dessus de la végétation est alors introduit. Des simulations numériques, de ce modèle bidimensionnel de propagation du feu avec terme de rayonnement non local, ont enfin été réalisées.
APA, Harvard, Vancouver, ISO, and other styles
36

Schaer, Nicolas. "Modélisation des écoulements à surface libre de fluides non-newtoniens." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD033/document.

Full text
Abstract:
L’objectif de cette thèse est de développer un modèle numérique 3D afin d’étudier le phénomène de laves torrentielles ; écoulements visqueux fortement chargés en matière solide, surgissant en montagne lors d’orages violents. Aujourd’hui, la prévision des zones de vulnérabilité s’appuie sur des outils de calcul 0D, 1D ou 2D. Or ces outils ne peuvent représenter pleinement le comportement à surface libre des écoulements du fait de nombreuses approximations et hypothèses. Ainsi cette thèse met en œuvre un code numérique 3D pour étudier ces écoulements. Ce travail aboutit à la construction d’un modèle 3D à partir de données réelles de terrain. Plusieurs scénarios ont été étudiés et comparés à des résultats issus d’un modèle 2D. Les résultats mettent en évidence les apports non négligeables de la modélisation 3D : zones d’étalement et de dépôt, phénomènes d’encombrement, modélisation fine des écoulements dans les zones chenalisées. Préalablement, le modèle 3D a été validé en comparant les résultats numériques à des données expérimentales issues de la littérature, pour des typologies d’écoulement représentatives de celles observées sur des sites grandeur nature
The objective of this thesis is to develop a 3D numerical model to assess debris flow. These viscous flows, heavily loaded with solid matter, form when heavy rain occurs in mountains. Today, forecasts of potentially impacted areas are based on 0D, 1D and 2D numerical tools. However, these tools cannot fully represent the free surface behaviour of debris flows due to the approximations and assumptions on which they are based. Thus, this work utilises a 3D numerical code to study this phenomenon. A specific model is built with real field data. Several flow scenarios are studied and compared with a 2D numerical model. The results highlight the significant benefits of a 3D approach by providing information on the fine representation of flow dynamics over the catchment area. The model also predicts the impact of debris flow (overflowing on a road bridge) and the zones of deposition and spreading. It highlights possible congestion phenomena and reproduces flows in the channels by fully accounting for parietal friction, capabilities not provided by 2D models. Prior to this application, the 3D model was evaluated with five sets of experimental data to validate its ability to represent viscoplastic flows. Different types of flows are studied and are representative of those observed on real sites when debris flow occur
APA, Harvard, Vancouver, ISO, and other styles
37

Roux, Christian. "Analyse des précipitations en hydrologie urbaine - Exemple de la Seine-Saint-Denis." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://tel.archives-ouvertes.fr/tel-00529474.

Full text
Abstract:
Jusqu'à nos jours en France, la description des précipitations en hydrologie urbaine repose essentiellement sur l'analyse de mesures ponctuelles. Elle se limite de surcroît à des statistiques d'intensités moyennes maximales (courbes IDF) obtenues selon des méthodes diverses. La pérennisation de réseaux denses de pluviographes conçus pour l'hydrologie urbaine autorise aujourd'hui des travaux de recherche sur les propriétés et la modélisation des précipitations. Cette thèse s'appuie sur 250 années-stations de mesures, acquises par le service d'assainissement de la Seine-Saint-Denis depuis 1976. Elle fait le point des méthodes de construction de courbes IDF, insiste sur les techniques d'analyse régionales et fournit des estimations d'intensités pour des périodes de retour de quelques semaines à quelques dizaines d'années. Des lois de distribution telles que le mélange de deux lois exponentielles ou la loi de Pareto procurent de bons résultats d'ajustement pour l'ensemble du domaine des fréquences. La distribution des intensités moyennes maximales de périodes de retour supérieures à 1,5 an, quelles que soient leur durée et leur surface d'observation (10-60 minutes ; 0 -10000 hectares) est représentée par une loi exponentielle simple et adimensionnelle. On étudie les fluctuations saisonnières et nycthémérales du risque pluvial. La notion de coefficient d'abattement épicentrique est ramenée à un simple indicateur global d'hétérogénéité spatiale. Enfin, les effets de la diversité temporelle et spatiale de la pluie sur le ruissellement sont décrits à l'aide d'un exemple concret, un bassin versant urbanisé de 1400 hectares, et d'un modèle mathématique de simulation pluie-débit.
APA, Harvard, Vancouver, ISO, and other styles
38

Ragueneau, Frédéric. "Fonctionnement dynamique des structures en béton : influence des comportements hystériques locaux." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0001.

Full text
Abstract:
Les travaux effectués dans le cadre de cette thèse portent sur la modélisation et la compréhension du comportement des structures en béton soumises à des chargements de type cyclique et dynamique. Le programme expérimental camus (maquette de bâtiment a échelle 1/3), réalisé sur la table sismique du CEA-Saclay, nous a permis, par une confrontation avec des simulations numériques, de mettre en avant les deux points sensibles du calcul que sont : la prise en compte physique des phénomènes d'amortissement ainsi que la détermination objective d'un critère de ruine sur structure. Afin d'améliorer la prédiction des calculs numériques, le présent travail tente de diminuer l'importance d'une matrice globale d'amortissement au profit d'une représentation locale des dissipations. Ainsi l'hystérésis du matériau, dérivant du frottement entre lèvres de fissures, est décrite par un couplage entre le niveau d'endommagement et la présence de contraintes de frottement sur les plans de décohésion. Ce modèle local, établi dans le cadre de la thermodynamique des processus irréversibles, permet de relocaliser la dissipation dans les zones sollicitées et de la corréler au niveau de fissuration. L'implantation numérique du modèle a été réalisée dans un code ef de type poutre multicouches et validée sur des essais de flexion 3 points sur poutres en béton arme. La prise en compte d'un critère de ruine nous a conduits à la question de la localisation des déformations dans des contextes de dynamique lente et rapide. Dans ce but, un modèle visco-endommageable a été implante dans un code de dynamique explicite tridimensionnel permettant de traiter ce problème pour des chargements a grande vitesse de déformation.
APA, Harvard, Vancouver, ISO, and other styles
39

Lupu, Cristina. "Impact d'un modèle de covariance d'erreur de prévision basé sur les fonctions de sensibilité dans un 3D-VAR." Mémoire, 2006. http://www.archipel.uqam.ca/1663/1/M9190.pdf.

Full text
Abstract:
Les fonctions de sensibilité dites a posteriori permettent de caractériser des corrections aux conditions initiales qui peuvent réduire significativement l'erreur de prévision à une échéance donnée (typiquement 24 ou 48 heures). L'erreur est ici définie par l'écart à une analyse de vérification et la fonction de sensibilité ne peut donc être calculée qu'a posteriori. De telles structures dépendent de la nature de l'écoulement et ne sont pas prises en compte dans le modèle de covariance d'erreur de prévision stationnaire utilisé dans un système d'assimilation de données variationnelle 3D (3D-Var) comme celui du Centre Météorologique Canadien (CMC). Pour remédier à ceci, Hello et Bouttier (2001) ont introduit une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans ce cas, l'amplitude de cette correction est déterminée en s'ajustant aux observations disponibles. Dans ce projet, une formulation différente est proposée et comparée à celle de Hello et Bouttier (2001). L'algorithme, appelé 3D-Var adapté, est tout d'abord présenté et analysé dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduit dans le 3D-Var du CMC. L'impact du changement apporté a été étudié en utilisant les fonctions de sensibilité a posteriori associées à une prévision manquée sur la côte est de l'Amérique du Nord. En mesurant globalement l'erreur de prévision, la fonction de sensibilité indique qu'il est nécessaire d'apporter des corrections à l'analyse sur différentes régions du globe. Pour le 3D-Var adapté, ceci conduit à une fonction de structure non localisée et l'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. En comparant aux prévisions issues du 3D-Var opérationnel ou de l'analyse de sensibilité, la prévision issue de l'analyse du 3D-Var adapté est améliorée par rapport à celle du 3D-Var conventionel mais nettement moins que celle issue de l'analyse de sensibilité. Par contre, le 3D-Var adapté améliore l'ajustement de l'analyse aux observations alors que l'analyse de sensibilité le dégrade. En localisant la mesure de l'erreur de prévision sur la région correspondant au système météorologique du cas étudié sur la côte est de l'Amérique du Nord, la fonction de sensibilité est maintenant localisée sur une région mieux délimitée (dite région sensible). Il est également possible de varier la fenêtre temporelle utilisée pour définir la fonction de sensibilité. L'impact sur la qualité de l'analyse et des prévisions résultantes a été étudié autant pour l'analyse de sensibilité que pour le 3D-Var adapté. Les résultats montrent que la définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. Les résultats obtenus montrent que l'utilisation des fonctions de sensibilité comme fonctions de structures n'est pas immédiate. Bien que limitées à un seul cas, nos expériences indiquent certaines pistes intéressantes pour définir des fonctions de sensibilité pouvant être utilisées comme fonctions de structures. Ces idées pourraient s'appliquer également aux fonctions de sensibilité a priori.
APA, Harvard, Vancouver, ISO, and other styles
40

Tatarevic, Aleksandra. "L'approche méthodologique à la validation d'une paramétrisation des aérosols et nuages en utilisant le simulateur des instruments d'Earthcare." Mémoire, 2009. http://www.archipel.uqam.ca/2288/1/M10904.pdf.

Full text
Abstract:
La validation d'un modèle atmosphérique avec les observations satellitaires est basée sur les différentes techniques de télédétection employées afin de récupérer des propriétés physiques et optiques de composantes atmosphériques, notamment des nuages et des aérosols. Il est bien connu que le « retrieval approach » introduit de grandes incohérences en raison des hypothèses diverses portant sur le problème d'inversion où la principale difficulté est l'unicité de la solution. Autrement dit, le milieu analysé peut être composé d'un certain nombre de paramètres physiques inconnus dont les combinaisons différentes mènent au même signal de radiation. En plus du problème d'unicité de la solution, il y a plusieurs problèmes mathématiques reliés à l'existence et à la stabilité de la solution ainsi qu'à la manière dont la solution est construite. Par contre, il est bien connu que les prévisions des modèles atmosphériques souffrent d'incertitudes portant sur l'approche numérique qui limite leurs applications à la simulation de phénomènes naturels. Malgré ces difficultés, certains aspects des prévisions numériques peuvent être considérées comme réalistes parce qu'elles prennent explicitement en considération les principes de la physique, dont des processus microphysiques des nuages et des aérosols. Dans ce contexte, la motivation principale de cette recherche est d'évaluer le potentiel de la validation des paramétrisations physiques des aérosols et des nuages dans les modèles climatiques par le biais des mesures satellitaires (radar et lidar) en utilisant les « simulation vers l'avant ». Dans cette étude, nous utilisons une approche qui emploie le modèle Simulateur des instruments d'EarthCARE afin de reproduire des mesures satellitaires comparables à celles du radar et du lidar. Compte tenu du manque de mesures satellitaires, la validation se base sur les mesures directes du lidar et du radar de l'expérience APEX-E3 réalisées au printemps 2003 où les fréquences et la performance des systèmes d'observation correspondent à celles qui vont être mesurées par le satellite EarthCARE. Les caractéristiques microphysiques des nuages et des aérosols ainsi que l'état de l'atmosphère sont produites par le modèle atmosphérique NARCM. Elles sont ensuite converties en données de réflectivité pour le radar et en données de rétrodiffusion pour lidar en utilisant le Simulateur des Instruments d'EarthCARE. Pour terminer, les résultats sont comparés aux mesures de radar et de lidar de l'expérience APEX-E3. Les champs d'aérosols simulés avec NARCM indiquent un accord important avec ceux qui sont observés, mais les propriétés microphysiques des nuages simulées ne sont pas compatibles avec les observations. Autrement dit, les résultats montrent un large désaccord entre la réflectivité observée et la réflectivité simulée en dépit du fait que ses étendues verticales sont relativement similaires. Le nuage simulé est plus mince, situé à plus haute altitude et les valeurs maximales de réflectivité dans le nuage sont environ 5-10 dBZ inférieures à celles du nuage observé. De plus, le coefficient de la rétrodiffusion simulé (sans eau liquide) au-dessous de la base et au-dessus du sommet du nuage est nettement plus faible par rapport au coefficient de rétrodiffusion observé. Il y a également, à ces deux niveaux une plus grande quantité d'eau glacée observée que dans le cas simulé par NARCM. Si la présence d'eau liquide est incluse dans le Simulateur des lnstruments d'EarthCARE, les valeurs simulées du coefficient de rétrodiffusion sont de plusieurs ordres de grandeurs supérieures à celles observées, ce qui suggère que les valeurs du contenu en eau liquide simulées par NARCM sont surestimées d'une manière significative par rapport à toutes les altitudes où le nuage observé est présent. En conclusion, l'analyse montre que la paramétrisation microphysique de Lohmann (Lohmann et Roeckner, 1996) ne possède pas la capacité de produire les quantités glace observées dans le cas de cirrostratus. Il est également constaté que le contenu d'eau glacé de NARCM est sous-estimé, et que le contenu d'eau liquide est surestimé. Les résultats de cette étude confirment donc que l'utilisation du « forward approach » a un grand potentiel dans la validation de la paramétrisation des aérosols et des nuages. Par contre, des nouvelles vérifications seront nécessaires pour accomplir le processus de validation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Validation, Rétrodiffusion de lidar, Réflectivité de radar, Simulations régionales des modèles atmosphériques.
APA, Harvard, Vancouver, ISO, and other styles
41

Markovic, Marko. "Simulating climate over North America and atmospheric low-frequency variability using variable resolution modeling approach." Thèse, 2011. http://www.archipel.uqam.ca/4026/1/D2179.pdf.

Full text
Abstract:
Les modèles climatiques à résolution variable, dont les modèles à grille étirée, permettent l'utilisation d'une fine résolution sur les zones d'intérêts, résolution hors d'atteinte pour les modèles mondieux. L'approche à résolution variable possède aussi l'avantage d'une grande efficacité concernant l'utilisation des ressources de calcul. L'absence dans de tels modèles de conditions aux frontières latérales représente aussi un atout pour la simulation du climat à l'échelle mondiale mais aussi régionale. Cette étude à pour objectif d'évaluer la simulation du climat nord-américain à l'aide de la configuration à résolution variable du Global Multiscale model (SGM-GEM) afin d'évaluer les bénéfices respectifs de localiser la zone de haute résolution localement, au-dessus de l'Amérique du Nord, ou au-dessus du Pacifique équatorial, région de forçage important pour la variabilité du climat nord-américain. De plus, nous avons étudié les bénéfices potentiels de l'approche à résolution variable avec une emphase sur les téléconnections entre les anomalies de la température de surface de la mer et le climat nord-américain. Nous avons évalué des ensembles de simulations de prédiction saisonnière des mois hivernaux d'années ENSO sélectionnées. Les ensembles comprennent 10 membres pour chacune des configurations du SGM-GEM présentées précédemment. En comparaison avec la version de GEM à grille uniforme (simulation de référence), il a été démontré que les simulations utilisant l'approche à résolution variable, pour chacune des configurations, reproduisent généralement mieux les observations au-dessus de leurs zones à haute résolution, malgré une détérioration de certaines variables. De plus, certaines erreurs systématiques observées dans la simulation de référence demeurent présentes dans les simulations du SGM-GEM. La localisation de la zone de haute résolution au-dessus d'une zone de forçage important (Pacifique équatorial) ne semble pas provoquer une amélioration nette du climat au-dessus de la région d'intérêt (Amérique du Nord) pour les simulations climatiques multi-annuelles. Chacune des configurations du SGM-GEM testée simule des téléconnections réalistes associées au mode dominant de la variabilité interannuelle des anomalies de la SST du Pacifique équatorial. Les simulations SGM-GEM avec la zone de haute résolution au-dessus du continent nord-américain reproduisent avec plus de précision les anomalies de la température près de la surface et obtiennent de meilleures résultats d'analyse (skill scores) pour l'ensemble du continent. Par contre, aucune configuration ne semble indiquer une amélioration claire de la simulation du géopotentiel à 500hPa au-dessus du continent. Les erreurs dans la prévision du rapport signal-bruit est le résultat des non-linéarités des réponses aux deux composites ENSO et interprétées comme le résultat des incohérences des réactions du modèle atmosphérique aux différentes anomalies de la température de surface de la mer. Les résultats de cette étude ne peuvent démontrer que, dans un contexte de prédiction saisonnière, l'approche à résolution variable représente un avantage en comparaison à l'approche à résolution uniforme. L'amélioration de la prédiction des champs de surface produite par les simulations SGM-GEM semble être reliée à une représentation plus précise du bilan radiatif de surface et à d'autres processus de surface directement liés au schéma de surface utilisé. ______________________________________________________________________________
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography